• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 194
  • 20
  • 15
  • Tagged with
  • 229
  • 229
  • 93
  • 91
  • 64
  • 53
  • 47
  • 45
  • 45
  • 36
  • 28
  • 28
  • 28
  • 27
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

ADC : ambiente para experimentação e avaliação de protocolos de difusão confiável / Reliable broadcast protocols experimentation and evaluation environment (ADC)

Barcelos, Patricia Pitthan de Araujo January 1996 (has links)
Uma tendência recente em sistemas de computação é distribuir a computação entre diversos processadores físicos. Isto conduz a dois tipos de sistemas: sistemas fortemente acoplados e sistemas fracamente acoplados. Este trabalho enfoca os sistemas de computação classificados como fracamente acoplados, ou sistemas distribuídos, como são popularmente conhecidos. Um sistema distribuído, segundo [BAB 86], pode ser definido como um conjunto de processadores autônomos que não compartilham memória, não tem acesso a clocks' globais e cuja comunicação é realizada somente por troca de mensagens. As exigências intrínsecas de sistemas distribuídos compreendem a confiabilidade e a disponibilidade. Estas exigências tem levado a um crescente interesse em técnicas de tolerância a falhas, cujo objetivo é manter a consistência do sistema distribuído, mesmo na ocorrência de falhas. Uma técnica de tolerância a falhas amplamente utilizada em sistemas distribuídos é a técnica de difusão confiável. A difusão confiável é uma técnica de redundância de software, onde um processador dissemina um valor para os demais processadores em um sistema distribuído, o qual esta sujeito a falhas [BAB 85]. Por ser uma técnica básica de comunicação, diversos procedimentos de tolerância a falhas baseiam-se em difusão confiável. Este trabalho descreve a implementação de um ambiente de apoio a sistemas distribuídos intitulado Ambiente para Experimentação e Avaliação de Protocolos de Difusão Confiável (ADC). Neste ambiente são utilizados os recursos da difusão confiável para a obtenção de uma concordância entre todos os membros do sistema livres de falha. Esta concordância, conhecida como consenso, é obtida através de algoritmos de consenso, os quais visam introduzir o grau de confiabilidade exigido pelos sistemas distribuídos. O ADC (Ambiente para Experimentação e Avaliação de Protocolos de Difusão Confiável) foi desenvolvido em estações de trabalho SUN (SunOS) utilizando o sistema operacional de rede heterogêneo HetNOS [BAA 93] desenvolvido na UFRGS. O ambiente foi implementado com base em um estudo realizado sobre protocolos de difusão confiável [BAR 94]. Através da implementação do ADC e possível simular a execução de protocolos de difusão confiável aplicando modelos propostos para os mesmos. Desta execução são extraídos resultados, sobre os quais pode-se realizar uma analise. Esta análise tem sua fundamentação principalmente nos parâmetros de desempenho, confiabilidade e complexidade. Tanto a implementação do ADC como a realização da analise do modelo proposto foram realizados tendo como suporte alguns dos protocolos de difusão confiável disponíveis na literatura. O principal objetivo deste ambiente consiste na experimentação, ou seja, na verificação da relação teórico-prática dos sistemas distribuídos perante a utilização de uma técnica de redundância de software, a difusão confiável. Através deste ambiente torna-se possível a determinação de parâmetros tais como o número de mensagens de difusão trocadas entre os processos, o número de mensagens de retransmissão enviadas, o número de mensagens emitidas durante todo o processamento do modelo, etc. Estes parâmetros resultam numa analise consistente de protocolos de difusão confiável. / A recent trend in computing systems is to distribute the computation between several physical processors. This leads to two different systems: closely coupled systems and loosely coupled systems. This work focuses on computing systems classified as loosely coupled or distributed systems, as they are commonly known. According to [BAB 86], a distributed system can be defined as a set of autonomous processors with no shared memory, no global clocks and whose comunication is performed only by message exchange. The inherent requirements of distributed systems include reliability and availability. These have caused an increasing interest in fault tolerance techniques, whose goal is to keep the distributed system consistent despite failures. A fault tolerance technique largely used in distributed systems is reliable broadcast. Reliable broadcast is a software redundancy technique, where a processor disseminates a value to other processors in a distributed system, in which failures can occur [BAB85]. Because it is a basic communication technique, several fault tolerance procedures are based on reliable broadcast. This work describes the implementation of a support environment for distributed systems called Reliable Broadcast Protocols Experimentation and Evaluation Environment (ADC). Reliable broadcast resources are used in this environment to obtain an agreement among all off-failure system components. This agreement, called consensus, has been obtained through consensus algorithms, which aim to introduce the reliability degree required in distributed systems. The ADC has been developed in Sun workstation (SunOS) using the heterogeneous operating system HetNOS [BAA 93] which was developed at UFRGS. The environment has been implemented based on a research about reliable broadcast protocols [BAR 94]. Through the ADC it is possible to simulate the execution of reliable broadcast protocols applying proposed models to them. From this execution results are extracted, and over them analysis can be done. This analysis has been based essentialy in parameters such as performance, reliability and complexity. Some classical reliable broadcast protocols were used as a support to ADC implementation and model analysis. The main goal of this environment consists in validating diffusion protocols in a practical distributed systems environment, facing reliable broadcast. Through this environment it can be possible the analysis of important parameters resolution such as the number of messages exchanged between process, the number of retransmission of messages sent, the number of messages sent during the whole model processing, others. These parameters result in a consistent analysis of reliable broadcast protocols.
172

[en] DEPLOYMENT OF DISTRIBUTED, MULTI-LANGUAGE AND MULTI-PLATFORM COMPONENT-BASED SOFTWARE / [pt] IMPLANTAÇÃO DE COMPONENTES DE SOFTWARE DISTRIBUÍDOS MULTI-LINGUAGEM E MULTI-PLATAFORMA

AMADEU ANDRADE BARBOSA JUNIOR 09 March 2010 (has links)
[pt] Este trabalho apresenta uma infraestrutura para implantação remota e descentralizada de componentes de software distribuídos, multi-linguagem e multi-plataforma. Diferente de outros trabalhos, essa infraestrutura suporta a instalação local de componentes com dependências estáticas, que são geridas por um sistema de pacotes, semelhante àqueles usados em sistemas operacionais baseados em Linux. A fim de simplificar a gesão do ambiente de execução e do ciclo de vida dos componentes, essa infraestrutura oferece uma interface programática que permite o planejamento da implantação e o mapeamento físico por níveis graduais de detalhamento. Os níveis graduais de detalhamento ajudam na modularizaçãoo dos planos de implantação e permitem o mapeamento automático, semi-automático ou totalmente manual dos componentes no ambiente de execução e nas máquinas físicas. Isso garante ao desenvolvedor um maior controle sobre a distribuição dos recursos, caso necessite. O projeto dessa infraestrutura visa facilitar trabalhos futuros, como o desenvolvimento de novas estratégias automáticas da implantação e a integração com linguagens de descrição de arquitetura. / [en] This work presents an infrastructure for remote and decentralized deployment of distributed, multi-language and multi-platform component-based applications. Unlike other component deployment systems, this infrastructure supports the local installation of static dependencies, which are managed by a packaging system, similar to those used in Linux-based operating systems. In order to simplify the management of the execution environment and the component’s life-cycle, this infrastructure provides an API that allows the deployment planning and the physical mapping by incremental level of details. The incremental level of details promote the modularisation of deployment plans and allow the automatic, semi-automatic or fully manual mapping of components in the execution environment and the physical resources. This provides a better control over the distribution of resources to the developer, if needed. The design of this infrastructure aims to provide a basis for future work, as the development of new strategies for automatic deployment and the integration with architecture description languages.
173

Gerenciamento descentralizado de redes sem fio industriais segundo o padrão WirelessHART

Müller, Ivan January 2012 (has links)
O uso de equipamentos sem fio em sistemas de monitoramento e controle de processos industriais vem aumentando gradativamente. Os elevados custos de cabeamento incentivam os gerentes de fábricas para que considerem o uso de sistemas industriais sem fio, uma vez que estes promovem grandes reduções nos custos de instalação finais. Entretanto, a robustez do enlace de rádio frequência e os requerimentos de comunicação em tempo real são frequentemente citados como obstáculos reais para o uso de tecnologias sem fio na indústria. À frente das demais organizações, a HART Foundation lançou em 2007 o WirelessHART, sendo este o primeiro padrão aberto de comunicação sem fio especificamente desenvolvido para ambientes industriais. Apesar de ser um protocolo seguro e de propiciar comunicação em tempo real, o estudo aprofundado do WirelessHART revela diversas possibilidades de melhorias. Nesse protocolo, o gerenciamento da rede é feito de forma centralizada, o que garante maior simplicidade e controle sobre o escalonamento, roteamento e a segurança das mensagens. Por outro lado, grandes latências, especialmente nos processos de conexão e desconexão de nós, impossibilitam o uso de dispositivos móveis ou intermitentes. A concentração do gerenciamento em um só elemento também leva à fragilidade do sistema: na falha do gerenciador central, toda rede fica inoperante. Neste trabalho, é apresentada uma arquitetura de rede WirelessHART inovadora, que utiliza coprocessadores gerenciadores distribuídos para possibilitar a descentralização do gerenciamento e consequentemente as suas vantagens. O sistema desenvolvido permite diferentes configurações descentralizadas, parciais ou totais, e com mínimas modificações no protocolo original. A arquitetura de rede proposta mantém os dispositivos de campo com suas características originais, de baixo custo e consumo, além de permitir a coexistência com equipamentos certificados. A metodologia para a descentralização é apresentada e o estudo de caso realizado permite a avaliação da proposta. A originalidade deste trabalho é verificada através do estudo do estado da arte. Os resultados obtidos de um estudo de caso demonstram o grande potencial da proposta, com reduções significativas nos tempos de agregação e manutenção da rede. A proposta de descentralização possibilita configurações e modos operacionais antes impossíveis no WirelessHART, tais como o uso de dispositivos móveis ou intermitentes e o emprego de técnicas de handover. / The use of wireless devices in industrial systems for process monitoring and control has been gradually increasing. The high costs of cabling encourage plant managers to consider the use of such industrial wireless systems, since they promote large reductions in final costs. However, the link robustness and the real-time communication requirements are frequently cited as real obstacles to the use of wireless technologies in the industry. Ahead of other organizations, the HART Foundation launched the in 2007WirelessHART, which is the first open standard for wireless communications developed specifically for industrial environments. WirelessHART is a reliable and secure protocol and provide real-time communications but the thorough study of this protocol reveals several possibile improvements. In this protocol, network management is done centrally, ensuring simplicity and control over the scheduling, routing and messaging security. Moreover, large latency, especially in the connection and disconnection processes of field devices, preclude the use of mobile or intermittent devices. The concentration of one element in management also leads to the system fragility: if the central manager fails the entire network fail. In this work, a innovative WirelessHART network achitecture is presented and implemented by means of hardware-based distributed network manager coprocessors to enable decentralization and its blessings. The developed system allows different decentralized, partial or total architectures with minimal changes to the original protocol. A hardware-based solution maintains field devices with its low cost and consumption features and allow coexistence with certified equipment. The decentralization methodology along with its originality is presented and case study allows the evaluation of the proposal. The results demonstrate the architecture has great potential with significant reductions in join and maintenance times. The proposed decentralization enables configurations and operating modes previously impossible in WirelessHART such as the use of mobile or intermittent devices and handover techniques.
174

Trix : um sistema operacional multiprocessado para transputers, com gerencia distribuida de processos / Trix, a transputer based multiprocessor operating system, with distributed process management

Pasin, Marcelo January 1994 (has links)
O trabalho em torno do sistema TRIX visa desenvolver um sistema operacional multiprocessado experimental, para servir de base a futuros trabalhos de pesquisa em sistemas operacionais e processamento paralelo. Como características essenciais do sistema tem-se simplicidade, desempenho e compatibilidade com UNIX. Com o sistema operando em vários processadores, pode-se fazer experiências de muitos tipos em processamento paralelo, como por exemplo, ensaios de distribuição de carga, avaliações de desempenho, implementação de linguagens paralelas ou distribuídas, ,bancos de dados, sistemas dedicados, etc. Ao construir o sistema TRIX, decidiu-se usar o código fonte de um sistema já pronto e funcionando, para encurtar o tempo de desenvolvimento. Optou-se pelo MINIX, que é um sistema bem estruturado, dividido em camadas de processos seqüenciais que se comunicam por troca de mensagens. Mais que isso, 0 MEND( a compatível com o UNIX versão 7 e o seu c6digo fonte pode ser usado para fins acadêmicos sem ferir o seu Copyright. Foi necessário porem dotar o MINIX de características distribuídas, para o controle de uma arquitetura multiprocessada. projeto e implementação destas características é o assunto deste trabalho. Inicialmente são avaliados os sistemas operacionais multiprocessados encontrados na literatura, de maneira a auxiliar no projeto do TRIX. Entre os detalhes estudados estão as diferenças entre sistemas paralelos e distribuídos, a comunicação entre seus processos e sua forma de distribuição. São apresentados os microprocessadores do tipo transputer, com seus mecanismos de criação e comunicação de processos implementados em hardware. Também é detalhado o sistema operacional MINIX, com sua construção em camadas, com processos servidores e clientes e suas estruturas de controle. 0 sistema foi projetado tentando maximizar a sua flexibilidade, escalabilidade e disponibilidade e minimizar sua complexidade. Os processos servidores são divididos de forma fixa, controlando as funções de memória localmente e as funções de arquivos remotamente. Os processos de usuário são distribuídos tentando se equalizar a taxa de ocupação dos processadores do sistema. E implementado um mecanismo de identificação global de processos juntamente com um método transparente de comunicação. Isso é feito junto com a criação de um driver suplementar ao sistema, responsável pela comunicação entre processos de processadores distintos. O núcleo original do MINIX recebeu uma serie de alterações para suportar as características distribuídas do novo sistema, de maneira a identificar processos locais e remotos. Foram extraídas do núcleo as funções executadas pelo escalonador em hardware do transputer. Foram inseridas algumas funções novas para tratar de algumas idiosincrasias do transputer, como por exemplo, sua falta de gerencia de memória. Finalmente, foi criado um mecanismo distribuído para controlar a arvore de processos do sistema, mantendo a semântica do UNIX. A escolha do processador para a execução de novos processos 6 feita pelo processador que o estiver criando, através de informações recebidas sobre processadores menos ocupados que estiverem mais próximos. / The TIUX system has been defined as an experimental operating system, to be used in future research on operating systems and parallel processing. The essential characteristics of the system are simplicity, performance and uNix compatibility. With the system running on several processors, several topics can be studied, such as load balancing, performance evaluation, implementation of distributed or parallel programming languages, distributed data bases and embedded systems. While designing the TRix system, it was decided to use the source code of an existing system, to shorten the development time. MINIX was chosen, because it is a well structured system, divided into layers of sequential processes, which communicate via messages. MINIX is compatible with UNIX version 7 and its source code can be used for academic purposes without any copyright infringiment. It had to be extended to control a multiprocessor architecture. The implementation of these characteristics is the main subject of this work. Initially some existing multiprocessor operating systems are evaluated, in order to guide in the development of TRIX. The studied issues are differences between parallel and distributed systems, interprocess communication features and the process distribution policy. The transputer microprocessors are presented, with their hardware implemented devices for process creation and communication. The MINIX operating system layered structure is described, with client and server processes and their control structures. The system is projected as an attempt to maximize flexibility, scalability and availability and to minimize complexity. The server processes are distributed in a fixed layout, controlling the memory and processes locally, and the files remotely. The user processes are distributed with load balancing among the processors. Global identification and transparent communication are implemented. This is achieved with an additional device driver, responsible for communication between processes running on different processors. The original MINIX kernel was changed to support the new distributed features of the system, identifying processes globally. The scheduler functions were stripped off, as they are now performed by the transputer hardware. Some functions were inserted to deal with some transputer problems, as for example, the lack of a memory management unit. Finally, a mechanism to control the global system process tree was created, maintaning strict UNIX semantics. The choice of which processor will hold a newly created process is made by the processor creating it, based on information received about the nearer processor with a low load.
175

AFIDS : arquitetura para injeção de falhas em sistemas distribuídos / AFIDS - architecture for fault injection in distributed systems

Sotoma, Irineu January 1997 (has links)
Sistemas distribuídos já são de amplo uso atualmente e seu crescimento tende a se acentuar devido a popularização da Internet. Cada vez mais computadores se interligam e trocam informações entre si. Nestes sistemas, requerimentos como confiabilidade, disponibilidade e desempenho são de fundamental importância para a satisfação do usuário. Estes requerimentos podem ser atendidos aproveitando-se da redundância já existente com as maquinas interligadas. Mas para atingir os requisitos de confiabilidade e disponibilidade, protocolos tolerantes a falhas devem ser construídos. Tolerância a falhas visa continuar a fornecer o serviço de algum protocolo, aplicação ou sistema a despeito da ocorrência de falhas durante a sua execução. Tolerância a falhas pode ser implementada por hardware ou por software através de mascaramento ou recuperação de falhas. Recentemente, a injeção de falhas implementada por software tem sido um dos principais métodos utilizados para validar protocolos tolerantes a falhas em sistemas distribuídos, e muitas ferramentas tem sido construídas. Contudo, não ha nenhuma biblioteca de classes orientada a objetos para auxiliar novos pesquisadores na construção da sua própria ferramenta de injeção de falhas. Este trabalho apresenta uma proposta de uma arquitetura orientada a objetos escrita em C++ para sistemas operacionais UNIX usando sockets, de modo a alcançar aquele objetivo. Esta arquitetura é chamada de AFIDS (Architecture for Fault Injection in Distributed Systems). AFIDS pretende fornecer uma estrutura básica que aborda as questões principais no processo de injeção de falhas implementada por software: a) a Geraldo de parâmetros de falhas para o experimento, b) o controle da localização, tipo e tempo da injeção de falhas, c) a coleta de dados do experimento, d) a injeção efetiva da falha e a análise dos dados coletados de modo a obter medidas de dependabilidade sobre o protocolo tolerante a falhas. Ou seja, AFIDS pretende ser um framework para a construed° de ferramentas de injeção de falhas. Segundo [BOO 961: "Através do uso de frameworks maduros, o esforço de desenvolvimento torna-se mais fácil, porque os principais elementos funcionais podem ser reutilizados". AFIDS leva em consideração várias questões de projeto que foram obtidas através da analise de oito ferramentas de injeção de falhas por software para sistemas distribuídos: FIAT [SEG 88], EFA [ECH 92. ECH 94], SFI [ROS 93], DOCTOR [HAN 93], PFI [DAW 94], CSFI [CAR 95a], SockPFI [DAW 95] e ORCHESTRA [DAW 96]. Para auxiliar a construção de AFIDS, é apresentada uma ferramenta de injeção de falhas que utiliza um objeto injetor de falhas por processo do protocolo sob teste. AFIDS e esta ferramenta são implementadas em C++ usando sockets em Linux. Para que AFIDS se tome estável e consistente e necessário que outras ferramentas sejam construídas baseadas nela. Isto é enfatizado porque, segundo [BOO 96]: "Um framework são começa a alcançar maturidade apos a sua aplicação em pelo menos três ou mais aplicações distintas". / Currently, distributed systems are already in wide use. Because of the Internet popularization their growth tend to arise. More and more computers interconnect and share information. In these systems, requirements such as reliability, availability and performance are fundamental in order to satisfy the users. These requirements can be reached taking advantage of the redundancy already associated with the computers interconnected. However, to reach the reliability and availability requirements, fault tolerant protocols must be built. Fault tolerance aims to provide continuous service of some protocol, application or system in despite of fault occurrence during its execution. Fault tolerance can be implemented in hardware or software using fault masking or recovery. Recently, the software-implemented fault injection has been one of the main methods used to validate fault tolerant protocols in distributed systems, and many tools has been built. However, there is no object-oriented class library to aid new researchers on the buildin g of own fault injection tool. This work presents a proposal of an objectoriented architecture written in C++ for UNIX operating systems using sockets, in order to reach that purpose. This architecture is called AFIDS (Architecture for Fault Injection in Distributed Systems). AFIDS intends to provide a basic structure that addresses the main issues of the process of software-implemented fault injection: a) the generation of fault parameters for the experiment, b) the control of the location, type and time of the fault injection, c) the data collection of the experiment, d) the effective injection of the faults, and e) the analysis of collected data in order to obtain dependability measures about the fault tolerant protocol sob test. According to [BOO 96]: "By using mature frameworks, the effort of the development team is made even easier, because now major functional elements can be reused.". AFIDS regards various design issues that were obtained from the analysis of eight tools of software-implemented fault injection for distributed systems: FIAT [SEG 88], EFA [ECH 92, ECH 94], SFI EROS 93], DOCTOR [HAN 93], PFI [DAW 94], CSFI [CAR 95a], SockPFI [DAW 95] e ORCHESTRA [DAW 96]. In order to aid the AFIDS building, a fault injection tool that uses one injector object in each process of protocol under test is shown. AFIDS and this tool are implemented in C++ using sockets on Linux operating system. AFIDS will become stable and consistent after the building of others tools based on it. This is emphasized because, according to [BOO 96]: "A framework does not even begin to reach maturity until it has been applied in at least three or more distinct applications".
176

Trix : um sistema operacional multiprocessado para transputers, com gerencia distribuida de processos / Trix, a transputer based multiprocessor operating system, with distributed process management

Pasin, Marcelo January 1994 (has links)
O trabalho em torno do sistema TRIX visa desenvolver um sistema operacional multiprocessado experimental, para servir de base a futuros trabalhos de pesquisa em sistemas operacionais e processamento paralelo. Como características essenciais do sistema tem-se simplicidade, desempenho e compatibilidade com UNIX. Com o sistema operando em vários processadores, pode-se fazer experiências de muitos tipos em processamento paralelo, como por exemplo, ensaios de distribuição de carga, avaliações de desempenho, implementação de linguagens paralelas ou distribuídas, ,bancos de dados, sistemas dedicados, etc. Ao construir o sistema TRIX, decidiu-se usar o código fonte de um sistema já pronto e funcionando, para encurtar o tempo de desenvolvimento. Optou-se pelo MINIX, que é um sistema bem estruturado, dividido em camadas de processos seqüenciais que se comunicam por troca de mensagens. Mais que isso, 0 MEND( a compatível com o UNIX versão 7 e o seu c6digo fonte pode ser usado para fins acadêmicos sem ferir o seu Copyright. Foi necessário porem dotar o MINIX de características distribuídas, para o controle de uma arquitetura multiprocessada. projeto e implementação destas características é o assunto deste trabalho. Inicialmente são avaliados os sistemas operacionais multiprocessados encontrados na literatura, de maneira a auxiliar no projeto do TRIX. Entre os detalhes estudados estão as diferenças entre sistemas paralelos e distribuídos, a comunicação entre seus processos e sua forma de distribuição. São apresentados os microprocessadores do tipo transputer, com seus mecanismos de criação e comunicação de processos implementados em hardware. Também é detalhado o sistema operacional MINIX, com sua construção em camadas, com processos servidores e clientes e suas estruturas de controle. 0 sistema foi projetado tentando maximizar a sua flexibilidade, escalabilidade e disponibilidade e minimizar sua complexidade. Os processos servidores são divididos de forma fixa, controlando as funções de memória localmente e as funções de arquivos remotamente. Os processos de usuário são distribuídos tentando se equalizar a taxa de ocupação dos processadores do sistema. E implementado um mecanismo de identificação global de processos juntamente com um método transparente de comunicação. Isso é feito junto com a criação de um driver suplementar ao sistema, responsável pela comunicação entre processos de processadores distintos. O núcleo original do MINIX recebeu uma serie de alterações para suportar as características distribuídas do novo sistema, de maneira a identificar processos locais e remotos. Foram extraídas do núcleo as funções executadas pelo escalonador em hardware do transputer. Foram inseridas algumas funções novas para tratar de algumas idiosincrasias do transputer, como por exemplo, sua falta de gerencia de memória. Finalmente, foi criado um mecanismo distribuído para controlar a arvore de processos do sistema, mantendo a semântica do UNIX. A escolha do processador para a execução de novos processos 6 feita pelo processador que o estiver criando, através de informações recebidas sobre processadores menos ocupados que estiverem mais próximos. / The TIUX system has been defined as an experimental operating system, to be used in future research on operating systems and parallel processing. The essential characteristics of the system are simplicity, performance and uNix compatibility. With the system running on several processors, several topics can be studied, such as load balancing, performance evaluation, implementation of distributed or parallel programming languages, distributed data bases and embedded systems. While designing the TRix system, it was decided to use the source code of an existing system, to shorten the development time. MINIX was chosen, because it is a well structured system, divided into layers of sequential processes, which communicate via messages. MINIX is compatible with UNIX version 7 and its source code can be used for academic purposes without any copyright infringiment. It had to be extended to control a multiprocessor architecture. The implementation of these characteristics is the main subject of this work. Initially some existing multiprocessor operating systems are evaluated, in order to guide in the development of TRIX. The studied issues are differences between parallel and distributed systems, interprocess communication features and the process distribution policy. The transputer microprocessors are presented, with their hardware implemented devices for process creation and communication. The MINIX operating system layered structure is described, with client and server processes and their control structures. The system is projected as an attempt to maximize flexibility, scalability and availability and to minimize complexity. The server processes are distributed in a fixed layout, controlling the memory and processes locally, and the files remotely. The user processes are distributed with load balancing among the processors. Global identification and transparent communication are implemented. This is achieved with an additional device driver, responsible for communication between processes running on different processors. The original MINIX kernel was changed to support the new distributed features of the system, identifying processes globally. The scheduler functions were stripped off, as they are now performed by the transputer hardware. Some functions were inserted to deal with some transputer problems, as for example, the lack of a memory management unit. Finally, a mechanism to control the global system process tree was created, maintaning strict UNIX semantics. The choice of which processor will hold a newly created process is made by the processor creating it, based on information received about the nearer processor with a low load.
177

Abordagem de teoria dos jogos evolucionários para modelagem de aplicações de live streaming em redes peer-to-peer / Evolutionary game theory approach for modeling live streaming applications over peer-to-peer networks

Watanabe, Sandra Satyko Guimarães January 2010 (has links)
Existe um interesse crescente do mercado por aplicações de multimídia em streaming via rede. Particularmente, as aplicações de live streaming que utilizam a tecnologia de redes P2P para a disseminação de conteúdo têm sido alvo de grande atenção. Aplicações como PPLive e PPStream provam que as aplicações de live streaming em redes P2P são uma realidade com relação à tecnologia atual. Os sistemas de live streaming fornecem um serviço de multicast no nível de aplicação para transmissões ao vivo na Internet. Essas aplicações de live streaming, quando executadas em redes P2P, têm potencial para serem altamente robustas, escaláveis e adaptativas devido à redundância e não dependência de recursos particulares dentre os nodos participantes. Porém, para fazer uso de todas as vantagens disponíveis, a aplicação deve contornar alguns desafios: i) manter a qualidade de playback mesmo com a inerente dinamicidade das redes P2P; ii) impedir que nodos incorretos escondam ações maliciosas atrás do anonimato que existe em P2P; iii) manter a taxa de upload dos nodos participantes da aplicação em um nível aceitável. A taxa de upload dos nodos é muito importante porque a aplicação de live streaming em P2P é uma aplicação cooperativa. Desta forma, esperase que todo novo usuário ajude a aplicação retransmitindo pacotes para outros usuários, mantendo, desta forma, a capacidade global de upload do sistema. Infelizmente, manter a cooperação em live streaming não é uma tarefa trivial, visto que cada nodo enfrenta o dilema social do interesse próprio (individualmente é melhor explorar a cooperação dos outros usuários sem reciprocidade) versus a cooperação para com o grupo. A principal contribuição deste trabalho consiste na apresentação de um modelo matemático baseado em Teoria dos Jogos Evolucionários, cujo objetivo é ajudar a compreender as aplicações de live streaming em redes P2P e os fatores que influenciam o seu correto funcionamento. Como contribuição secundária, este trabalho fornece uma análise estatística do comportamento do download e upload observado nestas aplicações. A análise estatística mostra que existe um decaimento da variância temporal de download e upload nas aplicações de live streaming, e que tal decaimento segue uma lei de potência. Os resultados evolucionários do modelo indicam que, se a queda do índice de satisfação dos usuários com a taxa de download for suave, e se a redução da satisfação devido ao custo de upload for insignificante, então existe um ambiente propício para que a cooperação entre os nodos cresça. De forma inversa, se a queda do índice de satisfação dos usuários com a taxa de download for abrupta, e a redução da satisfação devido ao custo de upload for significativa, então existe um ambiente propício para proliferação de nodos oportunistas. A realização e descrição desta pesquisa é composta de quatro etapas principais: i) a delimitação do cenário de live streaming e a definição do jogo para modelagem; ii) a definição do conjunto de estratégias e da função de utilidade; iii) a criação do modelo; iv) a análise do modelo e a apresentação dos resultados de simulação. A análise do modelo abrange três fases: i) análise estatística e comparação das características de download e upload dos dois simuladores utilizados; ii) avaliação do modelo de Teoria dos Jogos Evolucionários através de simulações; e iii) análise dos resultados evolucionários gerados pelo simulador de Teoria dos Jogos Evolucionários. / There is a growing interest in the market for networked multimedia applications. Live streaming applications that use the technology of P2P networks for distribution of live content have specially been the subject of great attention. Applications such as PPLive and PPStrem demonstrate that P2P live streaming applications are already possible with our present technology. Live streaming systems provide a multicast service in the application level for live broadcasts to users through the Internet. These systems executing in P2P networks have the potential to be highly robust, scalable and adaptive due to the characteristics of these scenarios. However, to take advantage of these potential properties, they must overcome some challenges: i) to maintain the playback quality even with the inherent dynamics of P2P networks; ii) to prevent that incorrect peers hide malicious behavior behind their anonymity; iii) to maintain the upload contribution of peers at acceptable levels. The upload contribution of peers is highly important because live streaming applications are cooperative applications. Therefore, every new user must help the application forwarding packets to other users, thereby maintaining the global upload capacity of the system. Unfortunately, the maintenance of cooperation in live streaming system is not a trivial task, since each node faces the social dilemma of self-interest (individually is always better to explore the cooperation of other users without reciprocity) versus cooperation to the group. The main contribution of this dissertation is the presentation of a mathematical model based on Evolutionary Game Theory, whose goal is to help understanding live streaming P2P applications and the factors that influence their correct operation. As a secondary contribution, this work provides a statistical analysis of download and upload behaviors of peers in live streaming P2P systems. The statistical analysis indicates that there is a decay in the download and upload variances, and that this decay follows a power law. The evolutionary results of the model indicate that, if the satisfaction of users with the download rate is smooth, and the reduction of satisfaction due to the upload cost is negligible, then there is a favorable environment for the growth of cooperation. Conversely, if the satisfaction of users with the download rate is abrupt, and the reduction of satisfaction due to the upload cost is significant, then there is a favorable environment to the proliferation of opportunistic nodes. The realization and description of this research is composed of four main steps: i) the definition of the live streaming scenario and the definition of the game to model this scenario; ii) the definition of the strategy set and of the utility function; iii) the suggestion of a model; iv) the analysis of the proposed model and the presentation of obtained results. The model analysis comprehends three phases: i) the statistical analysis and the comparison of the characteristics of download and upload of the two simulators used in this work; ii) the evaluation of the Evolutionary Game Theory model through simulation; and iii) the analysis of the results generated by the Evolutionary Game Theory simulator.
178

Muse : um ambiente para modelagem de aplicações multimidia interativas com tradutor para e-lotos / MUSE: an interactive multimedia applications specification environment with translator to e-LOTOS

Gaspary, Luciano Paschoal January 1998 (has links)
É notável o avanço da utilização de aplicações multimídia nos diversos setores da atividade humana. Independente da área, seja ela educação ou entretenimento, a possibilidade de agregar recursos dinâmicos como áudio e vídeo aos já largamente utilizados como texto e imagem acarreta em benefícios aos usuários destas aplicações. Além disso, com a popularização da Internet, ha uma crescente demanda pela sua execução em ambientes distribuídos. Este trabalho teve como objetivo desenvolver MUSE, um ambiente gráfico para modelagem de aplicações multimídia interativas. Através de uma interface gráfica avançada e de um novo modelo de autoria de alto nível, e possível a criação de sistemas complexos de forma rápida e intuitiva. 0 modelo de autoria proposto neste trabalho e adotado pelo ambiente prevê a possibilidade de os elementos que constituem a aplicação estarem dispersos em uma rede de computadores, permitindo a definição de limiares aceitáveis de atraso e componentes alternativos. Pela grande expressividade do modelo, no entanto, podem ser geradas especificações com inconsistências lógicas e temporais. Por esta razão, o ambiente prove ainda especificações E-LOTOS - uma extensão temporal de LOTOS - utilizadas para fins de analise e verificação, permitindo a validação dos requisitos temporais das aplicações definidas pelo autor. A formalização das especificações através de uma TDF, além de viabilizar sua validação, prove descrições sem ambigüidades, que podem ser alternativamente utilizadas por autores que sejam familiarizados com a técnica de descrição formal. Este trabalho é parte do projeto DAMD (Design de Aplicações Multimídia Distribuídas) dentro do programa PROTEM fase 2, que tem por objetivo fornecer uma metodologia que cubra o ciclo completo das aplicações multimídia distribuídas e que permita a um autor não especializado em métodos formais desenvolver essas aplicações naturalmente. / It is notable the advance of multimedia applications utilization in several fields of human activity. Independent from the area, whether education or entertainment, the possibility to aggregate dynamic resources like audio and video to the ones already widely used like text and image results in benefits to the users of such applications. Besides, with the popularization of the Internet, there is an increasing demand for their execution in distributed environments. This work presents MUSE, a graphical environment for modeling interactive multimedia applications. Through an advanced graphic interface and a new high-level authoring model, it is possible to create complex systems in a fast and intuitive way. The authoring model proposed in this work and adopted by the tool deals with media objects distributed in a computer network, allowing the definition of acceptable delay thresholds and alternative media objects. Due to the large expressiveness of the model, however, specifications can be generated with logical and temporary inconsistencies. For this reason, the tool also provides E-LOTOS specifications used with the purpose of analyzing and verifying the applications aiming at validating the temporal requirements defined by the author. The formalization of the specifications by means of a TDF, beyond making their validation possible, provides descriptions free of ambiguities, which may be alternatively used by authors familiarized with the formal description technique. This work is part of DAMD (Distributed Multimedia Applications Design) project, sponsored by the Brazilian research council. Its main objectives are to provide a methodology to completely cover the distributed multimedia applications development cycle and to allow authors who are not expert in formal methods to easily develop their applications.
179

ChangeLedge : change design and planning in networked systems based on reuse of knowledge and automation / ChangeLedge: projeto e planejamento de mudanças em sistemas de rede com base no reuso de conhecimento e automação

Cordeiro, Weverton Luis da Costa January 2009 (has links)
A gerência adequada de recursos e serviços de Tecnologia da Informação (TI) se tornou imperativa para o sucesso de organizações modernas. A Biblioteca de Infraestrutura de Tecnologia da Informação (Information Technology Infrastructure Library, ITIL) representa, nesse contexto, o framework mais popular para ajudar a alcançar esse fim. Para lidar com mudanças em TI, a ITIL define o processo de gerência de mudanças (change management), cujo principal objetivo é garantir que métodos e procedimentos padronizados são utilizados para o tratamento imediato e eficiente dessas mudanças. Para alcançar esse objetivo, é fundamental reutilizar a experiência adquirida com mudanças passadas no projeto de requisições futuras. A ITIL sugere o uso de modelos de mudanças (change models) como uma forma para permitir o reuso de tal experiência em mudanças recorrentes e similares. A criação de modelos de mudanças pode ser concretizada considerando duas abordagens distintas. Em uma abordagem top-down, operadores de TI podem projetar os modelos manualmente, com base no conhecimento adquirido no passado. Em uma perspectiva alternativa, bottom-up, esses modelos poderiam ser extraídos a partir de traços de mudanças passadas obtidos com orquestradores de mudanças. Na prática, no entanto, mudanças tem sido geralmente descritas e documentadas de forma ad hoc, devido `a falta de mecanismos adequados para apoiar o projeto das mesmas. Isso impede que o conhecimento adquirido na especificação, planejamento e condução de mudanças passadas seja reutilizado em requisições futuras. Para abordar esse problema, nesta dissertação são propostos (i ) o conceito de templates de mudança como um mecanismo para formalizar, preservar, e (re)usar conhecimento na especificação de mudanças recorrentes e similares, (ii ) um algoritmo para o refinamento automatizado de planos de mudanças em workflows executáveis, (iii ) um mecanismo para extrair templates de mudanças a partir de traços de execuções passadas, e (iv) uma solução fim-a-fim, apoiada por um sistema real, para permitir o planejamento e implantação de mudanças em TI. Para provar conceito e viabilidade técnica da solução proposta, foi realizada uma implementação prototípica de um sistema de gerência de mudanças chamado ChangeLedge, o qual foi utilizado para conduzir uma série de experimentos considerando mudanças típicas em TI. Os resultados alcançados indicam a efetividade da solução e eficiência do sistema, o qual é capaz de gerar planos de mudança executáveis e corretos em um período de tempo substancialmente menor que o que seria gasto por um operador humano experiente, e de extrair templates que descrevem com acurácia mudanças passadas executadas na organização. / Proper management of Information Technology (IT) resources and services has become imperative for the success of modern organizations. The IT Infrastructure Library (ITIL) represents, in this context, the most widely accepted framework to help achieve this end. In order to deal with IT changes, ITIL defines the change management process, whose main goal is to ensure that standardized methods and procedures are used for the efficient and prompt handling of these changes. To meet this goal, it is of paramount importance reusing the experience acquired from previous changes in the design of subsequent ones. ITIL suggests the use of change models as a mean of enabling the reuse of such experience across recorrent, similar changes. The creation of change models can be done considering two distinct approaches. In a top-down approach, IT operators may manually design models based on the knowledge owned/acquired in the past. In contrast, in a bottom-up perspective, these models could be discovered from past execution traces gathered from IT provisioning tools. In practice, however, changes have been usually described and documented in an ad hoc fashion, due to the lack of proper mechanisms to both support the change design process. This hampers knowledge acquired when specifying, planning, and carrying out previous changes to be reused in subsequent requests. To address this problem, in this thesis we propose (i ) the concept of change templates as a mechanism to formalize, preserve, and (re)use knowledge in the specification of (recurrent and similar) IT changes, (ii ) an algorithm for the automated refinement of change plans into actionable workflows, (iii ) a mechanism to discover change templates from traces of past changes, and (iv) an end-to-end solution, supported by a real system, to allow planning and implementation of IT changes to be designed and executed. To prove concept and technical feasibility of the proposed solution, we have developed a prototypical implementation of a change management system called ChangeLedge and used it to carry out a set of experiments, considering typical IT changes. The results obtained indicate the effectiveness of the solution and efficiency of the system, which is able to generate accurate and actionable change plans in substantially less time than would be spent by a skilled human operator, and to extract templates that accurately describe IT change procedures previously executed in the organization.
180

CONTRAM : middleware voltado a interoperabilidade entre sistemas de gerenciamento de tráfego urbano e redes de controladores semafóricos sob os paradigmas de sistemas de transportes inteligentes

Morais, Lincoln Luiz de January 2001 (has links)
Sistemas que utilizam tecnologias computacionais no tratamento de problemas relativos ao trânsito são classificados como ITS ou Intelligent Transportation System [FAR 97]. Esses sistemas buscam, através de sincronismo e eficiência no controle de sinais de tráfego, gerenciar o fluxo de veículos na malha viária minimizando o problema de congestionamento urbano e, consequentemente, problemas decorrentes desse congestionamento como um maior consumo de combustível, maior tempo de espera para veículos específicos como ambulâncias, bombeiros, polícia e transporte coletivo, e maiores índices de poluição ambiental, sonora e atmosférica, entre outros [FED 99A]. Atuando na coleta dos dados a serem tratados e processados por um Sistema de Gerenciamento de Tráfego Urbano ou SGTU, estão os dispositivos de controle de tráfego, como semáforos e sensores para detectar e quantificar o volume de veículos e seus respectivos controladores. Computacionalmente, são fatores relevantes a interoperabilidade entre esses dispositivos de controle e padronizações adotadas, de forma que um SGTU possa evoluir através da agregação de novas facilidades e recursos ou ainda desabilitar ou modificar os já existentes. Dada as características da administração pública e dos procedimentos de aquisição, são adquiridos controladores de diferentes fabricantes e modelos, dificultando a integração entre os mesmos em função de suas tecnologias proprietárias e da falta de uma política e esforço governamental em busca de padronizações para o setor, principalmente no que diz respeito à interoperabilidade. Recentemente iniciou-se uma mobilização para se estabelecer padrões voltados à área de transporte nos Estados Unidos [EUL 95], Japão [JAP 99] e Europa [KAR 99], através da participação dos órgãos que administram o tráfego urbano, dos fabricantes de sistemas de hardware e software, da comunidade acadêmica, dos órgãos de padronizações locais e das variadas instâncias da esfera governamental. Este trabalho apresenta o CONTRAM, modelo de um middleware que, tratando os controladores de dispositivos de controle tráfego instalados ao longo da malha viária baseado nos paradigmas de sistemas distribuídos, possa ser utilizado como interface entre estes e as aplicações computacionais de gerenciamento de tráfego, permitindo a integração de diferentes especificações em um único sistema. O seu escopo é atender às transações de consulta e configuração de valores dos dados utilizados para controlar, monitorar e gerenciar o tráfego de veículos, liberando um SGTU de conhecer detalhes técnicos envolvidos na comunicação com os controladores. O modelo baseia-se em uma arquitetura multicamadas, 4-tier, permitindo o gerenciamento de recursos de forma centralizada ou distribuída, neste último trocando dados através da internet, e integra-se aos sistemas legados e OO através do método black-box e chamada de objetos respectivamente. Foi projetado tendo em mente a utilização de padrões abertos da indústria da Informática e de Transportes, a interoperabilidade entre diferentes elementos tecnológicos voltados ao controle de tráfego e a expansibilidade segura de um SGTU. Para alcançar seu objetivo, faz uso de tecnologias baseadas em metadados e agentes SNMP. / Systems that use computational technologies in the handling of the traffic problems are classified as ITS or Intelligent Transportation System. These systems search through synchronism and efficiency in traffic signs control, to manage the stream of vehicles in the road network, minimizing the problem of urban congestion and, consequently, decurrent problems of this congestion as a major fuel consumption, major waiting time for specific vehicles as ambulances, firemen, policy and collective carrier and greaters indices of ambient pollution, sonorous and atmospheric, amongst others. Acting in the data collection to be treat and processed for a Urban Traffic Control System or UTCS, they are the traffic control devices, as traffic lights and sensors to detect and quantify the volume of vehicles and, its respective controllers. Computational, important factors are the interoperability among these control devices and standardizations adopted, allowing UTCS customize through the new easinesses and features aggregation or still disable or modify already the existing ones. Given the features of the public management and the acquisition procedures, different controllers models of different manufacturers are acquired, making it difficult the integration in function of its proprietary technologies and the lack of one politics and governmental effort in considering standardizations for the sector, mainly about interoperability. Recently was initiated a mobilization of standards establishing to the Transportation area in the United States, Japan and Europe, through the participation of the agencies that manage the urban traffic, hardware and software solutions providers, academic community, local standardizations agencies and the varied instances of the governmental sphere. This work presents the CONTRAM, a middleware model that, treating the traffic controllers installed in road networks based in distributed systems paradigms, can be used as interface between the computational applications of traffic management and the controllers of control devices, allowing the integration of different specifications in an only system. Its target is to take care of to get and set transactions on data values used to control, monitor and manage the vehicles traffic, liberating a UTCS to know technician details in the communication with the controllers. The model is based on multilayers architecture, 4-tier, allowing the resources management in centered or distributed form, in last one changing data through the Internet and it is combined to the legacies systems and OO through the black-box and object call method respectively. It was projected having in mind the use of open standards of the Transportation and Computer science industries , interoperability between different traffic control technological elements and the UTCS expansibility safe. To reach its objective, it makes use of metadata and SNMP agents technologies.

Page generated in 0.1093 seconds