• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 1
  • Tagged with
  • 72
  • 72
  • 72
  • 71
  • 31
  • 25
  • 17
  • 16
  • 15
  • 14
  • 13
  • 13
  • 13
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Tolerância a faltas bizantinas usando técnicas de introspecção de máquinas virtuais

Morais, Paulo Henrique de January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2016-04-19T04:15:05Z (GMT). No. of bitstreams: 1 338166.pdf: 1857792 bytes, checksum: 4e04e177628752ee16754f884df17496 (MD5) Previous issue date: 2015 / Atualmente é quase impossível uma pessoa não utilizar direta ou indiretamente um sistema computacional. Ao realizar uma operação bancária ou até mesmo ao fazer compras em uma loja, nós somos auxiliados por sistemas computacionais. Em contrapartida, surgem novos ataques para comprometer o funcionamento correto dos sistemas utilizados. Várias técnicas são utilizadas para que os sistemas funcionem conforme sua especificação, entre elas,destacam-se sistemas tolerantes a faltas bizantinas/intrusões (BFT) através de replicação de máquina de estados (RME). Nessa abordagem, é proposta uma arquitetura de sistema tolerante a intrusões que garante o seu funcionamento correto, mesmo na presença de réplicas faltosas.Este trabalho propõe um algoritmo que une replicação de máquina de estados e sistema de detecção de intrusões (IDS) para tolerar faltas bizantinas. A tecnologia de virtualização é utilizada no algoritmo proposto para replicar o serviço e também para isolar o IDS da aplicação monitorada. Dessa forma, é proposto um detector de intrusões como um componente confiável do sistema BFT. As principais contribuições são: (1) propor um modelo unificado, o qual utiliza replicação de máquina de estados e IDS em conjunto, e faz uso dos recursos da tecnologia de virtualização, (2) detector de intrusões como componente confiável do sistema e (3) elaborar um algoritmo BFT baseado no modelo proposto. Através desta abordagem foi possível reduzir o número de réplicas do sistema de 3f + 1 para 2f + 1 e reduzir o número de passos do protocolo do algoritmo tradicional BFT de Castro e Liskov de 5 para 3 no caso normal de operação e sem precisar da participação do cliente no protocolo.<br> / Abstract : Currently, it is almost impossible for a person not to use a computing system, in a direct or indirect way. When we are using a banking machine, or shopping in a store, we need to use a computing system. On the other hand, there are new attacks to damage the correct workingof the systems. There are several techniques to help the systems to work correctly according to their specification; among them, the Byzantine/intrusions fault tolerant systems (BFT) through the state machine replication (SMR) are important ones. In this perspective, it proposes a system architecture tolerant to intrusions that guarantees its proper functioning, even if there are faulty replicas.This research proposes an algorithm which presents a unified approachby using state machine replication and intrusion detection system in order to tolerate Byzantine faults. The virtualization technology is usedon the proposed algorithm to replicate the service and also to isolate the IDS of the monitored application. Therefore, we propose an intrusion detector as a reliable component of the BFT system. The main contributions are: (1) to propose a unified model, which uses state machine replication together with IDS, using the virtualization technology resources; (2) intrusion detector as a reliable component of the system; and (3) to make a BFT algorithm based on the proposed model. This approach made it possible to decrease the number of the system replicas from the 3f + 1 to 2f + 1, and to reduce the number of steps of the protocol of the BFT traditional algorithm from Castro and Liskov from 5 to 3 in a normal case of operation without the participation of the client in the protocol.
32

Consenso para ordem total de tarefas com prioridade

Pinho Filho, Paulo Rogério de January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2016-09-20T04:31:16Z (GMT). No. of bitstreams: 1 341439.pdf: 601566 bytes, checksum: 1cf4c567f598ff5b549d914b491f090c (MD5) Previous issue date: 2016 / Em sistemas de tempo real, inversão de prioridades é o problema em que há tarefas de alta prioridade críticas que devem ser executadas antes de tarefas de baixa prioridade, mas não conseguem. Em sistemas distribuídos tolerantes a faltas com replicação ativa, cada réplica deve, além de resolver o problema da inversão de prioridade, executar todas as tarefas na mesma ordem para manter a consistência. Os trabalhos existentes que resolvem o problema dependem de premissas fortes como o uso de serviços de consenso, o que faz com que o algoritmo execute com uma complexidade de mensagens trocadas quadrática ou cúbica. O trabalho proposto pretende modificar algoritmos de consenso para resolver o problema de inversão de prioridades sem depender de tais premissas fortes, com complexidade de mensagens linear.<br> / Abstract : In real-time systems, priority inversion is the problem in which there are higher priority tasks that must be executed before lower priority taks, but cannot. In fault tolerant distributed systems with active replication, each replica must, besides solving the problem of priority inversion, execute all requests at the same order to maintain consistency. Current works that solve the problem depend on strong assumptions like the use of consensus services, that causes the algorithm to execute with quadratic or cubic complexity of message transmission. The proposed work aims to adapt consensus algorithms in order to solve the priority inversion problem without depending on such strong assumptions, achieving linear message tranmission complexity.
33

Análise de estabilidade e síntese de controladores para sistemas de controle via rede

Maestrelli, Rafael January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2016. / Made available in DSpace on 2017-02-14T03:09:49Z (GMT). No. of bitstreams: 1 343971.pdf: 2316355 bytes, checksum: 0b56846c70ad4d31aef32017534aaed6 (MD5) Previous issue date: 2016 / Nos sistemas de controle via rede a troca de informação entre os elementos de controle (controlador, atuador, planta e sensor) é realizada utilizando uma rede de comunicação com múltiplos propósitos e compartilhada com outros dispositivos. As trocas de informação pela rede induzem uma maior complexidade à análise do sistema de controle devido a limitação na largura de banda da rede, a quantização do sinal, possíveis atrasos de transmissão induzidos pela rede e perda de informação devido a congestionamento. Este trabalho aborda o problema de análise de estabilidade de sistemas de controle via rede sob os efeitos da quantização e da perda de informação. Primeiramente, para tratar o problema de analise de estabilidade de sistemas sob quantização considera-se que o quantizador é estático, logarítmico e com número de níveis finito, e que está presente nos canais sensor-controle e controle-atuador. As condições de estabilidade são formuladas em termos de desigualdades matriciais lineares o que facilita a extensão do método para analisar a estabilidade de sistema não lineares. Abordando o problema de perda de informação é considerado que a modelagem do comportamento da perda de informação pode ser realizada por um modelo estocástico conhecido por processo de Bernoulli binário. Utilizando a noção de estabilidade no sentido da média quadrática em conjunto com a teoria de Lyapunov obtém-se um conjunto de condições necessárias que garantem a estabilidade de um sistema de controle não linear sujeito a perda de informação, em termos de desigualdades matriciais lineares, supondo um único canal com apagamento (controle-atuador), ou seja, o controle é tido como sendo parte integrante do elemento sensor, sendo assim, não é necessário enviar tal sinal pela rede. Considerando um sistema linear sujeito a quantização logarítmica finita e estática apresenta-se os resultados iniciais da análise de uma metodologia para o escalonamento da rede de um sistema de controle distribuído. Nessa proposta para o escalonamento da rede por quantização, é proposto modificar a largura de banda da rede utilizada por cada aplicação de maneira que as diferentes quantizações de cada malha de controle possibilitem a liberação de certa largura de banda para outras aplicações na rede que, em um dado momento, necessitem de uma largura de banda extra, sem comprometer a estabilidade da malha de controle. Finalmente, exemplos numéricos ilustram a aplicação das metodologias propostas.<br> / Abstract : In networked control systems, the exchange of information between control elements (controller, actuator, sensor and the system) is performed by using a shared multiple purpose communication network. The presence of a network in the control loop leads to a more complex control system analysis due to network bandwidth limitation, signal quantization, network induced transmission delays and information loss because of network congestion. This thesis addresses the stability analysis problem of networked control systems under quantized information and package dropouts. First, to handle the stability analysis problem of quantized systems, it is considered that the quantizer is static, logarithmic and has a finite size, and is present in the sensor-to-control and control-to-actuator channels. Stability conditions are formulated in terms of linear matrix inequality constraints which facilitates the method extension to deal with nonlinear systems. By modeling the information loss behavior in a fading network using a Bernoulli binary stochastic process, it is applied the mean square stability notion to deal with the information loss problem. The Lyapunov theory is then applied to obtain sufficient conditions to ensure the control system stability subject to information loss, in terms of linear matrix inequalities, assuming the presence of a single channel with erasure (control-to-actuator). Considering a linear system subject to a finite and static logarithmic quantization, preliminary results of a network scheduling methodology for distributed control systems is also presented. In this proposal, the network bandwidth used by each control loop changes dynamically in order to release a certain bandwidth for other network applications needing an extra bandwidth, at any given time, without compromising the control loop stability. Finally, numerical examples illustrate the potentials of the proposed methodologies.
34

Tolerância a falhas para sistemas legados : um estudo de caso no exército brasileiro

Santos Junior, Fausto Andrade dos 24 August 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015. / Submitted by Tania Milca Carvalho Malheiros (tania@bce.unb.br) on 2016-02-15T14:14:06Z No. of bitstreams: 1 2015_FaustoAndradedosSantosJúnior.pdf: 6574380 bytes, checksum: 41fcc46e8c9d7d7e08850d8ac1c9ae82 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-02-15T17:12:22Z (GMT) No. of bitstreams: 1 2015_FaustoAndradedosSantosJúnior.pdf: 6574380 bytes, checksum: 41fcc46e8c9d7d7e08850d8ac1c9ae82 (MD5) / Made available in DSpace on 2016-02-15T17:12:22Z (GMT). No. of bitstreams: 1 2015_FaustoAndradedosSantosJúnior.pdf: 6574380 bytes, checksum: 41fcc46e8c9d7d7e08850d8ac1c9ae82 (MD5) / Soluções modernas de arquitetura de sistemas indicam, muitas vezes, a computação distribuída como meio de satisfazer características desejáveis de desempenho. Uma classe de arquitetura distribuída em especial é o MOM ou Middleware Orientado à Mensagem. Esta arquitetura é capaz de conceder um mecanismo de comunicação assíncrona, em que é possível implementar fatores como escalabilidade e tolerância à falhas, de maneira transparente. O Exército Brasileiro conta com diversos sistemas que proporcionam fatores similares aos proporcionados pela arquitetura MOM, embora boa parte dos sistemas legados não admita esta abordagem. O Departamento-Geral do Pessoal - DGP, responsável pelos processos que envolvem recursos humanos no Exército, utiliza sistemas legados ao prover vários serviços. Alguns destes sistemas participam de processos sensíveis, como é o caso observado do processo de concessão de benefícios do sistema previdenciário, em que o sistema Papiro cataloga e concentra a documentação comprobatória de direitos. Seu objetivo é prover o acesso aos documentos cadastrados para consulta e averiguação de direitos pelos beneficiários, e que deve ocorrer na região onde reside a pessoa interessada. A arquitetura do sistema Papiro utiliza dados do negócio armazenados diretamente em arquivos, e não possui mecanismos para oferecer escalabilidade e tolerância a falhas nativamente. Seu uso é limitado em função da disponibilidade do sistema no território nacional, tendo em vista que seus usuários o acessam a partir das organizações militares presentes nas regiões centrais e fronteiras do país. Esta pesquisa tem por objetivo compor uma proposta de infraestrutura de armazenamento para sistemas legados do DGP, que proporcione a tolerância à falhas e a escalabilidade, sem que para isso deva-se ajustar as aplicações legadas hospedadas. A arquitetura elaborada baseia-se no StackSync, um MOM capaz de sincronizar espaços de armazenamento em ambientes heterogêneos. Os serviços necessários para a construção da arquitetura são detalhados, de acordo com sua participação no ambiente. O estudo foi realizado utilizando dados extraídos do sistema Papiro. Com os resultados obtidos, foi possível avaliar a aplicação da infraestura e o custo de hardware necessário para sua implementação pelo Exército Brasileiro. ______________________________________________________________________________________________ ABSTRACT / Modern solutions of systems architecture indicates, often, the distributed computing as a mean to meet desired performance characteristics. An distributed architecture class in particular is MOM or Message Oriented Middleware. This architecture is able to provide a mechanism for asynchronous communication, in which it is possible to implement such factors as scalability and fault tolerance in a transparent manner. The Brazilian Army has several systems that provide similar factors to those provided by MOM architecture, although much of the legacy systems will not admit this approach. The Departamento-Geral do Pessoal - DGP, responsible for processes that involve human resources in the Army, uses legacy systems to provide various services. Some of these systems participate in sensitive cases, such as observed from the concession of benefits concerning the social security system process, in which the Papiro system catalogs and concentrates supporting documentation. Its goal is to provide access to registered documents for inquiry and investigation about recipient rights, and that should occur in the region where the person concerned resides. The Papiro system’s architecture uses business data stored directly in files, and does not have mechanisms to provide scalability and fault tolerance natively. Its use is limited depending on system availability in the country, given that their users access from military organizations present in the central regions and the country’s borders. This research aims to compose a storage infrastructure proposal to the DGP legacy systems, which provides the fault tolerance and scalability, without adjusting the hosted legacy applications. The developed architecture is based on StackSync, a MOM capable of storage synchronization between heterogeneous environments. The services needed for the construction of the architecture are detailed, according to their participation in the environment. The study was carried out using data extracted from Papiro system. With the results obtained, it was possible to evaluate the infrastructure’s implementation and the cost of hardware needed to deliver this solution to the Brazilian Army.
35

Um algoritmo de diagnóstico distribuído para redes particionáveis de topologia arbitrária

Weber, Andrea 2010 October 1914 (has links)
Este trabalho apresenta um novo algoritmo de diagnóstico distribuído em nível de sistema, Distributed Network Reachability (DNR). O algoritmo permite que cada nodo de uma rede particionável de topologia arbitrária determine quais porções da rede estão alcançáveis e inalcançáveis. DNR é o primeiro algoritmo de diagnóstico distribuído que permite a ocorrência de eventos dinâmicos de falha e recuperação de nodos e enlaces, inclusive com partições e healings da rede. O estado diagnosticado de um nodo é ou sem-falha ou inatingível; o estado diagnosticado de um enlace é ou sem-falha ou não-respondendo ou inatingível. O algoritmo consiste de três fases: teste, disseminação e cálculo de alcançabilidade. Durante a fase de testes cada enlace é testado por um de seus nodos adjacentes em intervalos de teste alternados. Após a detecção de um novo evento, o testador inicia a fase de disseminação, na qual a nova informação de diagnóstico é transmitida para os nodos alcançáveis. A cada vez que um novo evento é detectado ou informado, a terceira fase é executada, na qual um algoritmo de conectividade em grafos é empregado para calcular a alcançabilidade da rede. O algoritmo DNR utiliza o número mínimo de testes por enlace por rodada de testes e tem a menor latência possível de diagnóstico, assegurada pela disseminação paralela de eventos. A correção do algoritmo é provada formalmente. Uma prova de correção no arcabouço bounded correctness também foi elaborada, incluindo latência delimitada de diagnóstico, latência delimitada de inicialização e acuidade. Um simulador do algoritmo foi implementado. Experimentos foram executados em diversas topologias incluindo grafos aleatórios (k-vertex connected e Power-Law) bem como grafos regulares (meshes e hipercubos). Extensivos resultados de simulação de eventos dinâmicos de falha e recuperação em nodos e enlaces são apresentados. / This thesis introduces the new Distributed Network Reachability (DNR) algorithm, a distributed system-level diagnosis algorithm that allows every node of a partitionable general topology network to determine which portions of the network are reachable and unreachable. DNR is the first distributed diagnosis algorithm that works in the presence of network partitions and healings caused by dynamic fault and repair events. A node is diagnosed as either working or unreachable and a link is diagnosed either as working or unresponsive or unreachable. The algorithm is formally specified and consists of three phases: test, dissemination, and reachability computation. During the testing phase each link is tested by one of the adjacent nodes at alternating testing intervals. Upon the detection of a new event, the tester starts the dissemination phase, in which the new diagnostic information is received by every reachable node in the network. New events can occur before the dissemination completes. After a new event is detected or informed, a working node runs the third phase, in which a graph connectivity algorithm is employed to compute the network reachability. The algorithm employs the optimal number of tests per link per testing interval and the best possible diagnosis latency, assured by the parallel dissemination of event information. The correctness of the algorithm is proved, including the bounded diagnostic latency, bounded start-up and accuracy. Experimental results obtained from simulation are presented. Simulated topologies include random graphs (k-vertex connected and Power-Law) as well as regular graphs (meshes and hypercubes). Extensive simulation results of dynamic fault and repair events on nodes and links are presented.
36

Um algoritmo de diagnóstico distribuído para redes particionáveis de topologia arbitrária

Weber, Andrea 2010 October 1914 (has links)
Este trabalho apresenta um novo algoritmo de diagnóstico distribuído em nível de sistema, Distributed Network Reachability (DNR). O algoritmo permite que cada nodo de uma rede particionável de topologia arbitrária determine quais porções da rede estão alcançáveis e inalcançáveis. DNR é o primeiro algoritmo de diagnóstico distribuído que permite a ocorrência de eventos dinâmicos de falha e recuperação de nodos e enlaces, inclusive com partições e healings da rede. O estado diagnosticado de um nodo é ou sem-falha ou inatingível; o estado diagnosticado de um enlace é ou sem-falha ou não-respondendo ou inatingível. O algoritmo consiste de três fases: teste, disseminação e cálculo de alcançabilidade. Durante a fase de testes cada enlace é testado por um de seus nodos adjacentes em intervalos de teste alternados. Após a detecção de um novo evento, o testador inicia a fase de disseminação, na qual a nova informação de diagnóstico é transmitida para os nodos alcançáveis. A cada vez que um novo evento é detectado ou informado, a terceira fase é executada, na qual um algoritmo de conectividade em grafos é empregado para calcular a alcançabilidade da rede. O algoritmo DNR utiliza o número mínimo de testes por enlace por rodada de testes e tem a menor latência possível de diagnóstico, assegurada pela disseminação paralela de eventos. A correção do algoritmo é provada formalmente. Uma prova de correção no arcabouço bounded correctness também foi elaborada, incluindo latência delimitada de diagnóstico, latência delimitada de inicialização e acuidade. Um simulador do algoritmo foi implementado. Experimentos foram executados em diversas topologias incluindo grafos aleatórios (k-vertex connected e Power-Law) bem como grafos regulares (meshes e hipercubos). Extensivos resultados de simulação de eventos dinâmicos de falha e recuperação em nodos e enlaces são apresentados. / This thesis introduces the new Distributed Network Reachability (DNR) algorithm, a distributed system-level diagnosis algorithm that allows every node of a partitionable general topology network to determine which portions of the network are reachable and unreachable. DNR is the first distributed diagnosis algorithm that works in the presence of network partitions and healings caused by dynamic fault and repair events. A node is diagnosed as either working or unreachable and a link is diagnosed either as working or unresponsive or unreachable. The algorithm is formally specified and consists of three phases: test, dissemination, and reachability computation. During the testing phase each link is tested by one of the adjacent nodes at alternating testing intervals. Upon the detection of a new event, the tester starts the dissemination phase, in which the new diagnostic information is received by every reachable node in the network. New events can occur before the dissemination completes. After a new event is detected or informed, a working node runs the third phase, in which a graph connectivity algorithm is employed to compute the network reachability. The algorithm employs the optimal number of tests per link per testing interval and the best possible diagnosis latency, assured by the parallel dissemination of event information. The correctness of the algorithm is proved, including the bounded diagnostic latency, bounded start-up and accuracy. Experimental results obtained from simulation are presented. Simulated topologies include random graphs (k-vertex connected and Power-Law) as well as regular graphs (meshes and hypercubes). Extensive simulation results of dynamic fault and repair events on nodes and links are presented.
37

Plataforma multiware : suporte a objetos em tempo de execução

Gunji, Tetsu 25 August 1995 (has links)
Orientador: Eleri Cardozo / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-21T08:04:39Z (GMT). No. of bitstreams: 1 Gunji_Tetsu_M.pdf: 6892777 bytes, checksum: 8acc2b55c4ae2decb4dfd108608985dc (MD5) Previous issue date: 1995 / Resumo: o rápido crescimento do processamento distribuído tem levado à necessidade de uma padronização do processamento distribuído aberto (ODP: Open Distributed Processing). O modelo de referência do ODP propõe uma arquitetura que dá suporte à distribuição, interconexão e portabilidade. No modelo ODP a unidade básica de processamento é o objeto. Um objeto é composto de seus atributos (estado) e de suas interfaces (métodos). Os objetos podem ser agrupados formando um cluster e os clusters por sua vez também podem ser agrupados novamente formando uma cápsula. A agregação dos objetos formando um cluster, e dos clusters formando uma cápsula tem como propósito facilitar o gerenciamento dos objetos. Os objetos podem interagir entre si através de regras bem definidas no modelo. A plataforma multiware é um modelo para o suporte ao ODP. Este modelo se presta a identificar os vários componentes e serviços de uma plataforma de suporte ao ODP. A proposta deste trabalho é prover um dos serviços da plataforma multiware que é o suporte a objetos em tempo de execução, ou seja, a criação de objetos (com seus atributos e interfaces), clusters, cápsula, além dos mecanismos de comunicação entre objetos / Abstract: The fast growth of distributed processing has brought the necessity of standardizing the Open Distributed Processing (ODP). The reference Model of ODP proposes an architecture that supports distribution, internetworking and portability. In the ODP model the basic processing unit is the object. An object is composed of atributes (state) and interfaces (methods). The objects can be grouped within a cluster and the clusters can be grouped within a capsuIe. The grouping of objects (clusters and capsules) makes the object management easier. Objects can interact between them using rules as defined in the ODP model. The multiware plataform is a model that supports ODP. This model is useful to identify the several components and services of a ODP plataform. The proposal of this work is to provide one of the multiware plataform services, namely the run-time support for the objects: the creation of objects (with theirs atributes and interfaces), clusters and capsuIe as well as the communication mechanism between objects / Mestrado / Mestre em Engenharia Elétrica
38

Objetos distribuidos

Gonçalves Junior, Celso 16 September 1994 (has links)
Orientador: Rogerio Drummond Burnier Pessoa de Mello Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-21T15:20:34Z (GMT). No. of bitstreams: 1 GoncalvesJunior_Celso_M.pdf: 3778992 bytes, checksum: 5c7701b8ff6ab11f0c13e7714285d9a0 (MD5) Previous issue date: 1994 / Resumo: A programação orientada a objetos oferece uma sólida base conceitual para o desenvolvimento de sistemas de informação, com ênfase em modularidade, extensibilidade e robustez. Por outro lado, avanços nas tecnologias de hardware, arquitetura e meios de comunicação propiciaram uma mudança nos padrões de ambiente de processamento de dados: o modelo de mainframes vem sendo substituído pelo modelo distribuído, baseado em redes de estações de trabalho. A combinação desses dois conceitos, objetos e sistemas distribuídos, oferece a curto prazo perspectivas bastante promissoras. Várias iniciativas visando esse objetivo vêm sendo desenvolvidas ou estão já em uso. Embora esses trabalhos adotem diferentes abordagens, eles procuram basicamente unificar conceitos das duas áreas, estabelecendo um modelo único de programação ¿Observação: O resumo, na íntegra poderá ser visualizado no texto completo da tese digital. / Abstract: The concepts introduced by the object paradigm embody a complete, sound framework for developing information systems with improved modularity, extendibility and robustness. On the other hand, technological advances in hardware components, computer architecture and communications have caused standards about computing environments to change: the old mainframe model has been steadily shifted in favor of the distributed model, based on workstations networks instead. Blending these two concepts, objects and distributed systems, offers very promising possibilities in the near future. Indeed, several attempts towards this goal are either under execution or already accomplished. These works while adopting different approaches and solutions, basically aim at unifying related issues from the two areas within a consistent programming model. Current efforts at the A_Hand Research Laboratory target the construction of a complex software development environment, planned to support the design and implementation of very large applications. The programming languages Cm and LegoShell are the basic programming tools in this environment. The Cm language is object-oriented, used to produce reusable software components, which can be brought together through the graphical language LegoShell. In this document, we define a new version for the language Cm, in order to meet inherent requirements of concurrent and distributed programming, thus establishing our underlying model for distributed applications programming. Adapting an existing object-oriented language to address programmng issues in a distributed backgroqnd while preserving its semantic consistency results a hard task, as a number of important aspects must be kept in mind. The main concern in distributed programming systems is location transparency; we have also investigated solutions regarding concurrency, exceptions and inheritance problems. The extensions to the Cm language here proposed include new syntatic constructions, the definition of the "remote object" concept and a set of standard classes and functions. / Mestrado / Mestre em Ciência da Computação
39

Concorrencia em linguagens de comando

Fernandez, Mauricio Alberto 30 September 1994 (has links)
Orientador: Rogerio Drummond Burnier Pessoa de Mello Filho / Dissertação (mestrado) - Universidade Estadual de campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-21T20:07:35Z (GMT). No. of bitstreams: 1 Fernandez_MauricioAlberto_M.pdf: 1638734 bytes, checksum: 602943caf6eed0fba74dfe34a3ed38eb (MD5) Previous issue date: 1994 / Resumo: A execução de programas é uma das formas de reutilização de software mais bem sucedidas graças a um módulo que atua entre o usuário e o núcleo do sistema operacional. Estes módulos permitem que o usuário tenha acesso a uma máquina virtual de nível superior àquela fornecida pelos serviços do sistema. Originalmente estes módulos processavam ordens que chegavam ao computador pela leitora de cartões, na época do time sharing surgem as linguagens de comandos que definem a sintaxe que o usuário deve utilizar para executar programas a partir de seu terminal; hoje existem interfaces gráficas de usuário para desempenhar estas funções. Na arquitetura do Unix o interpretador da linguagem de comandos é um módulo separado do núcleo do sistema, o que permitiu a aparição de várias linguagens de comandos para esse sistema. Na prática as linguagens de comandos do Unix têm se desempenhado como ótimas linguagens de desenvolvimento rápido de programas; Arquivos contendo comandos podem ser executados da mesma forma como são executados outros programas. Recursos sintáticos para executar vários comandos concorrentemente, de forma que a saída de um alimente a entrada de outro, permitem a construção de programas mediante a utilização de peças de funcionalidade mais elementar. Além disto, a interatividade agiliza o ciclo codificação-teste. Este trabalho propõe uma extensão ao modelo de concorrência das linguagens de comandos do Unix que sirva de base para a definição de uma linguagem de comandos distribuída. As principais características do modelo proposto são: suporte a vários paradigmas de interação entre processos distribuídos, recursos definicionais, recursos funcionais, abstração procedural e suporte à concorrência interna. / Abstract: Every operating system architecture includes a module that simplifies program execution by users, converting program execution in one of the most succesful cases of software reusablity. This module have evolved from early job control languages to graphical interfaces. Command languages carne with time sharing systems and were the means used to type commands into the system. Unix command languages have proven to be excellent languages for rapid program development. Files containing shell commands may be executed like any other program Syntactic devices for concurrent program execution, with the output of one program feeding the input of another, allow program construction by reusing simpler pieces. Besides, the interactive nature speeds up the coding-testing cycle. An extension to the concurrency model of Unix command languages is herewith proposed. This extension should be the basis for a further specification of a distributed command language. The highlights of the proposed model are: support to various paradigms of distributed processes interaction, features for functional and definitional programming, procedural abstraction and support for internal concurrency. / Mestrado / Mestre em Ciência da Computação
40

OMNI sistemas de suporte e aplicações distribuidas

Cianni, Cassius Di 23 September 1994 (has links)
Orientador: Rogerio Drummond Burnier Pessoa de Mello Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-21T19:44:27Z (GMT). No. of bitstreams: 1 Cianni_CassiusDi_M.pdf: 1867704 bytes, checksum: 3356ab8fd3bfcf8e14ec103f73c07357 (MD5) Previous issue date: 1994 / Resumo: O Sistema OMNI oferece facilidades para a criação, comunicação e gerenciamento de processos numa rede heterogênea de computadores com o sistema operacional UNIX. Ele estende os conceitos presentes no UNIX oferecendo serviços similares para um sistema distribuído. Seus três principais módulos são descritos: Servidor de Nomes, Módulo de Portas e Gerenciador de Processos. Cada entidade do sistema, tais como portas, processos e grupos de portas, tem urna identificação única e homogênea, chamada de OMNIid, capaz de, identificá-lo no tempo e no espaço. O Servidor de Nomes é responsável por associar nomes definidos pelo usuário a essas identificações, de tal forma que elas possam ser mais tarde recuperadas por outros processos em qualquer ponto da rede, provendo transparência quanto à real localização das entidades. O Módulo de Portas de Comunicação provê o mecanismo usado por processos para se comunicarem através do envio de mensagens a portas. Portas podem ser com ou sem conexão. Urna mensagem só pode ser enviada a urna porta conectável pela porta a ela conectada, ao passo que qualquer processo pode enviar uma mensagem a uma porta sem conexão. O sistema também suporta conectores especiais e grupos de portas, que permitem que uma mensagem seja enviada simultaneamente a muitas portas ou seja entregue a apenas uma de um conjunto de portas. O Gerenciador de Processos é responsável por criar processos distribuídos, enviar sinais a eles, perceber e relatar seu término. A maioria dos serviços do UNIX são estendidos, permitindo que processos sejam interrompidos por um sinal quando um processo filho morre ou que bloqueiem até seu término. Grupos de processos e sessões do UNIX são também estendidos. / Abstract: The OMNI system provides facilities for the creation, communication and management of processes in an heterogeneous network of computers running UNIX. It extends UNIX concepts by providing similar services on a distributed system. The system's three main modules, called the Name Server, the Communication Ports Module and the Process Manager are briefty described. Every system entity, such as ports, processes or port groups, has a unique, homogeneous, system-wide identification called OMNIid, which identifies it in both time and space. The Name Server is responsible for associating user-defil1ed names with these identifications, so that they can be later retrieved by other processes anywhere on the network, thus providing transparency with regard to actual entity location. The Communication Ports Module provides a mechanism used by processes to communicate with one another by sending messages to ports. Ports can be connection or connectionless. A message can only be sent to a connection port by its connected peer, while any process can send a message to a connectionless port. The system also supports special connectors and port groups, which allow a message to be multicast to many ports or to be delivered to one of several possible ports only. The Process Manager is responsible for creating distributed processes, sending signals to them, detecting and reporting their termination. Most UNIX services are extended, allowing parent processes to be interrupted by a signal at child's death or block until child termination. UNIX process groups and sessions are also extended. / Mestrado / Mestre em Ciência da Computação

Page generated in 0.1644 seconds