• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 194
  • 20
  • 15
  • Tagged with
  • 229
  • 229
  • 93
  • 91
  • 64
  • 53
  • 47
  • 45
  • 45
  • 36
  • 28
  • 28
  • 28
  • 27
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

[en] WORK-FLOW EXECUTION IN DISCONNECTED ENVIRONMENTS / [pt] EXECUÇÃO DE WORKFLOW EM AMBIENTES COM DESCONEXÃO

FABIO MEIRA DE OLIVEIRA DIAS 15 September 2003 (has links)
[pt] Os sistemas de gerência de workflow são freqüentemente utilizados para modelagem, monitoramento e execução coordenada de atividades realizadas por grupos de usuários em diferentes contextos. Com a atual proliferação de computadores portáteis e seu crescente poder de computação, os sistemas tradicionalmente desenvolvidos têm se mostrado, muitas vezes, excessivamente rígidos, limitando o grau de autonomia dos usuários. O objetivo deste trabalho é identificar e analisar diferentes técnicas de flexibilização e mecanismos que possam ser empregados em um sistema de gerência de work-flow destinado a dar suporte à operação desconectada. O principal desafio é garantir um nível de independência satisfatório entre grupos de pessoas trabalhando de forma conjunta que possibilite a realização coordenada de tarefas, com um objetivo global comum, em ambientes com desconexão. Para testar a viabilidade das idéias discutidas nesta dissertação, foi construído um sistema cujo projeto levou em conta os vários requisitos apresentados e que permite explorar características específicas de diferentes tipos de work-flow, buscando flexibilizar sua execução, sem comprometer a estruturação preestabelecida. / [en] Workflow management systems are frequently used for modeling, monitoring and controlling the coordinated execution of activities performed by workgroups in a variety of contexts. With the widespread use of portable computers and their growing computational power, conventional systems have often proved to be overly restrictive, effectively limiting the level of autonomy of the users involved. The primary goal of this work is to identify and analyze different flexibilization techniques and mechanisms that can be employed in a workflow management system aimed at supporting disconnected operation. The main challenge is to provide a satisfactory degree of independence among individuals in cooperating teams who share a common goal and work in disconnected environments. In order to test the viability of the ideas discussed in this dissertation, a system was built whose design met the requirements presented in the text and which allows the exploration of specific features of different kinds of workflow so as to enhance execution flexibility, without compromising the predefined structure.
162

[en] A WSN PROGRAMMING MODEL WITH A DYNAMIC RECONFIGURATION SUPPORT / [pt] UM MODELO DE PROGRAMAÇÃO PARA RSSF COM SUPORTE À RECONFIGURAÇÃO DINÂMICA DE APLICAÇÕES

ADRIANO FRANCISCO BRANCO 21 September 2011 (has links)
[pt] Algumas características básicas das redes de sensores sem fio (RSSF) dificultam as tarefas de criação e reconfiguração de aplicações. Nesse trabalho apresentamos um modelo de programação que pretende simplificar essas tarefas. O modelo se baseia no uso conjunto de funções parametrizáveis e de máquinas de estados finitos, e permite a implementação de diferentes tipos de aplicações para redes de sensores sem fio e a configuração remota dessas aplicações. Descrevemos alguns testes para avaliar o quanto esse modelo pode facilitar o desenvolvimento de novas aplicações, o quanto é fácil aplicar novas alterações sobre as aplicaçõesem execuçãos, e o impacto na quantidade de mensagens na rede por conta do uso da configuração remota. / [en] Some basic characteristics of wireless sensor networks (WSN) make application creation and reconfiguration dificult tasks. A programming model is presented to simplify these tasks. This model is based on a set of parametrized components and on a Finite State Machine, and allows the remote configuration of different applications over the same set of installed components. We describe some tests to evaluate its impact on the development process, and the ease of applying modifications to a running application. We also measure the additional impact of remote configuration on network activity.
163

[en] AN ARCHITECTURE FOR THE VISUALIZATION DISTRIBUTED OF VIRTUAL ENVIRONMENTS / [pt] UMA ARQUITETURA PARA A VISUALIZAÇÃO DISTRIBUÍDA DE AMBIENTES VIRTUAIS

ALEXANDRE GUIMARAES FERREIRA 25 July 2002 (has links)
[pt] Um grande número de aplicações requer um sistema de visualização que proporcione múltiplas visões de um ambiente virtual animado. Uma solução natural é a disposição de múltiplos dispositivos de visualização ao redor de um usuário, de forma a compor uma vista panorâmica da cena. Em um arranjo mais elaborado, vistas panorâmicas do ambiente virtual, obtidas a partir de diferentes pontos de vista, são fornecidas simultaneamente a diferentes usuários. Cada cena panorâmica apresentada ao usuário é formada pela composição das imagens geradas em cada superfície de visualização. Desta forma, é possível imaginar cada dispositivo de visualização como sendo uma janela para o ambiente virtual.O uso desta tecnologia visa realçar a percepção humana e aumentar o grau de imersão dos usuários. Isto é alcançado através do aumento quantitativo dos estímulos visuais fornecidos, decorrente do uso de múltiplas janelas. Uma abordagem tradicional para o desenvolvimento de um sistema deste tipo é baseada em sistemas especializados, que utilizam hardware dedicado, responsável pelo controle e processamento centralizado de todos os dispositivos de visualização. Este trabalho propõe uma arquitetura distribuída que proporcione maior escalabilidade, portabilidade e flexibilidade ao sistema de visualização utilizando uma rede heterogênea e estações gráficas de baixo custo. A arquitetura proposta objetiva dar suporte ao desenvolvimento de aplicações que apresentem um resultado visual consistente do ambiente virtual. Para isso, são apresentadas técnicas para garantir o sincronismo e a integridade entre as diversas estações. / [en] A great number of applications requires a visualization system that provides multiple visions of an animated virtual environment. A natural solution is the disposal of multiple devices of visualization around an user, in order to compose a panoramic sight of the scene. In a more elaborated arrangement , panoramic scenes of the virtual environment, acquired from different points of view, are provided simultaneously to different users. Each panoramic scene presented to the user is constituted by the composition of the images generated in each surface of visualization. Therefore, it is possible to imagine each device of visualization as being a window to a virtual environment. The use of this technology aims at to enhance the perception of human beings and to increase the degree of user s immersion. That is reached through the quantitative increase of the supplied visual stimulatons, decurrent of the use of multiple windows. A traditional approach for the development of this kind of system is based on specialized systems, that use the dedicated hardware, responsible for the control and processing centered of all the visualization devices. This work considers a distributed architecture that provides to greater scalability, portability and flexibility to the visualization system using an heterogeneous net and graphical stations of low cost. The architecture s proposal is to to support the development of applications that present a consistent visual result of the virtual environment. Thereunto, techniques are presented to guarantee the synchronism and the integrity between the various stations.
164

ADC : ambiente para experimentação e avaliação de protocolos de difusão confiável / Reliable broadcast protocols experimentation and evaluation environment (ADC)

Barcelos, Patricia Pitthan de Araujo January 1996 (has links)
Uma tendência recente em sistemas de computação é distribuir a computação entre diversos processadores físicos. Isto conduz a dois tipos de sistemas: sistemas fortemente acoplados e sistemas fracamente acoplados. Este trabalho enfoca os sistemas de computação classificados como fracamente acoplados, ou sistemas distribuídos, como são popularmente conhecidos. Um sistema distribuído, segundo [BAB 86], pode ser definido como um conjunto de processadores autônomos que não compartilham memória, não tem acesso a clocks' globais e cuja comunicação é realizada somente por troca de mensagens. As exigências intrínsecas de sistemas distribuídos compreendem a confiabilidade e a disponibilidade. Estas exigências tem levado a um crescente interesse em técnicas de tolerância a falhas, cujo objetivo é manter a consistência do sistema distribuído, mesmo na ocorrência de falhas. Uma técnica de tolerância a falhas amplamente utilizada em sistemas distribuídos é a técnica de difusão confiável. A difusão confiável é uma técnica de redundância de software, onde um processador dissemina um valor para os demais processadores em um sistema distribuído, o qual esta sujeito a falhas [BAB 85]. Por ser uma técnica básica de comunicação, diversos procedimentos de tolerância a falhas baseiam-se em difusão confiável. Este trabalho descreve a implementação de um ambiente de apoio a sistemas distribuídos intitulado Ambiente para Experimentação e Avaliação de Protocolos de Difusão Confiável (ADC). Neste ambiente são utilizados os recursos da difusão confiável para a obtenção de uma concordância entre todos os membros do sistema livres de falha. Esta concordância, conhecida como consenso, é obtida através de algoritmos de consenso, os quais visam introduzir o grau de confiabilidade exigido pelos sistemas distribuídos. O ADC (Ambiente para Experimentação e Avaliação de Protocolos de Difusão Confiável) foi desenvolvido em estações de trabalho SUN (SunOS) utilizando o sistema operacional de rede heterogêneo HetNOS [BAA 93] desenvolvido na UFRGS. O ambiente foi implementado com base em um estudo realizado sobre protocolos de difusão confiável [BAR 94]. Através da implementação do ADC e possível simular a execução de protocolos de difusão confiável aplicando modelos propostos para os mesmos. Desta execução são extraídos resultados, sobre os quais pode-se realizar uma analise. Esta análise tem sua fundamentação principalmente nos parâmetros de desempenho, confiabilidade e complexidade. Tanto a implementação do ADC como a realização da analise do modelo proposto foram realizados tendo como suporte alguns dos protocolos de difusão confiável disponíveis na literatura. O principal objetivo deste ambiente consiste na experimentação, ou seja, na verificação da relação teórico-prática dos sistemas distribuídos perante a utilização de uma técnica de redundância de software, a difusão confiável. Através deste ambiente torna-se possível a determinação de parâmetros tais como o número de mensagens de difusão trocadas entre os processos, o número de mensagens de retransmissão enviadas, o número de mensagens emitidas durante todo o processamento do modelo, etc. Estes parâmetros resultam numa analise consistente de protocolos de difusão confiável. / A recent trend in computing systems is to distribute the computation between several physical processors. This leads to two different systems: closely coupled systems and loosely coupled systems. This work focuses on computing systems classified as loosely coupled or distributed systems, as they are commonly known. According to [BAB 86], a distributed system can be defined as a set of autonomous processors with no shared memory, no global clocks and whose comunication is performed only by message exchange. The inherent requirements of distributed systems include reliability and availability. These have caused an increasing interest in fault tolerance techniques, whose goal is to keep the distributed system consistent despite failures. A fault tolerance technique largely used in distributed systems is reliable broadcast. Reliable broadcast is a software redundancy technique, where a processor disseminates a value to other processors in a distributed system, in which failures can occur [BAB85]. Because it is a basic communication technique, several fault tolerance procedures are based on reliable broadcast. This work describes the implementation of a support environment for distributed systems called Reliable Broadcast Protocols Experimentation and Evaluation Environment (ADC). Reliable broadcast resources are used in this environment to obtain an agreement among all off-failure system components. This agreement, called consensus, has been obtained through consensus algorithms, which aim to introduce the reliability degree required in distributed systems. The ADC has been developed in Sun workstation (SunOS) using the heterogeneous operating system HetNOS [BAA 93] which was developed at UFRGS. The environment has been implemented based on a research about reliable broadcast protocols [BAR 94]. Through the ADC it is possible to simulate the execution of reliable broadcast protocols applying proposed models to them. From this execution results are extracted, and over them analysis can be done. This analysis has been based essentialy in parameters such as performance, reliability and complexity. Some classical reliable broadcast protocols were used as a support to ADC implementation and model analysis. The main goal of this environment consists in validating diffusion protocols in a practical distributed systems environment, facing reliable broadcast. Through this environment it can be possible the analysis of important parameters resolution such as the number of messages exchanged between process, the number of retransmission of messages sent, the number of messages sent during the whole model processing, others. These parameters result in a consistent analysis of reliable broadcast protocols.
165

[en] GRIDFS: SERVER FOR GRIDS AND HETEROGENEOUS DISTRIBUTED ENVIRONMENTS / [pt] GRIDFS: UM SERVIDOR DE ARQUIVOS PARA GRADES E AMBIENTES DISTRIBUÍDOS HETEROGÊNEOS

MARCELO NERY DOS SANTOS 30 October 2006 (has links)
[pt] A computação em grade permite o uso de recursos computacionais distribuídos em várias redes para a execução de tarefas que requerem um alto poder computacional. Uma infra-estrutura para grades pode ser utilizada para auxiliar na execução dessas tarefas e pode coordenar o controle das atividades envolvidas na execução, como a disponibilização dos arquivos de dados para as tarefas em execução nos nós da grade. O GridFS é um sistema para o compartilhamento de arquivos em grades e ambientes distribuídos heterogêneos. Ao disponibilizar um servidor em diversas máquinas, é possível construir uma federação integrando os diversos sistemas de arquivos locais e abrindo possibilidades de armazenamento na ordem de terabytes. O sistema proposto foi modelado e desenvolvido levando em consideração diversos aspectos como escalabilidade, interoperabilidade e desempenho. O GridFS agrega algumas características dos sistemas de compartilhamento de arquivos atualmente em uso pela comunidade, isto é, o sistema oferece uma API para acesso remoto aos dados, disponibiliza a opção de cópia de arquivos entre diferentes servidores e fornece algumas funções especiais para os ambientes de computação em grade, como uma estimativa do tempo de transferência entre os diversos nós. Além de definir as características e os aspectos de implementação do sistema, esta dissertação apresenta alguns resultados experimentais para a transferência de arquivos na rede e, como forma de avaliação, discutimos a integração do GridFS ao emph {framework} CSBase, utilizado no desenvolvimento de sistemas para computação em grade. / [en] Grid computing allows the use of distributed networks resources for tasks requiring a high processing power. A Grid infra-structure may help in the execution of these tasks and is able to coordinate their related activities, possibly regarding the provision of data files for the tasks executing in the grid nodes. GridFS is a system that enables data sharing in grid and heterogeneous distributed environments. By deploying servers over several nodes, it is possible to build a federated system integrating all local file systems and leveraging possibilities for tera-scale sized data storage. The proposed system was modeled and developed considering several aspects such as scalability, interoperability and performance. GridFS combines some characteristics from diverse file management systems, that is, GridFS provides an API for remote data access, copy operations allowing file transfers between servers, and some special features for grid environments. Apart from defining system characteristics and implementation aspects, this dissertation shows some experimental results about the service scalability and performance, and, as an evaluation, discusses the integration of GridFS with CSBase, a framework used to develop systems for grid computing.
166

Abordagem de teoria dos jogos evolucionários para modelagem de aplicações de live streaming em redes peer-to-peer / Evolutionary game theory approach for modeling live streaming applications over peer-to-peer networks

Watanabe, Sandra Satyko Guimarães January 2010 (has links)
Existe um interesse crescente do mercado por aplicações de multimídia em streaming via rede. Particularmente, as aplicações de live streaming que utilizam a tecnologia de redes P2P para a disseminação de conteúdo têm sido alvo de grande atenção. Aplicações como PPLive e PPStream provam que as aplicações de live streaming em redes P2P são uma realidade com relação à tecnologia atual. Os sistemas de live streaming fornecem um serviço de multicast no nível de aplicação para transmissões ao vivo na Internet. Essas aplicações de live streaming, quando executadas em redes P2P, têm potencial para serem altamente robustas, escaláveis e adaptativas devido à redundância e não dependência de recursos particulares dentre os nodos participantes. Porém, para fazer uso de todas as vantagens disponíveis, a aplicação deve contornar alguns desafios: i) manter a qualidade de playback mesmo com a inerente dinamicidade das redes P2P; ii) impedir que nodos incorretos escondam ações maliciosas atrás do anonimato que existe em P2P; iii) manter a taxa de upload dos nodos participantes da aplicação em um nível aceitável. A taxa de upload dos nodos é muito importante porque a aplicação de live streaming em P2P é uma aplicação cooperativa. Desta forma, esperase que todo novo usuário ajude a aplicação retransmitindo pacotes para outros usuários, mantendo, desta forma, a capacidade global de upload do sistema. Infelizmente, manter a cooperação em live streaming não é uma tarefa trivial, visto que cada nodo enfrenta o dilema social do interesse próprio (individualmente é melhor explorar a cooperação dos outros usuários sem reciprocidade) versus a cooperação para com o grupo. A principal contribuição deste trabalho consiste na apresentação de um modelo matemático baseado em Teoria dos Jogos Evolucionários, cujo objetivo é ajudar a compreender as aplicações de live streaming em redes P2P e os fatores que influenciam o seu correto funcionamento. Como contribuição secundária, este trabalho fornece uma análise estatística do comportamento do download e upload observado nestas aplicações. A análise estatística mostra que existe um decaimento da variância temporal de download e upload nas aplicações de live streaming, e que tal decaimento segue uma lei de potência. Os resultados evolucionários do modelo indicam que, se a queda do índice de satisfação dos usuários com a taxa de download for suave, e se a redução da satisfação devido ao custo de upload for insignificante, então existe um ambiente propício para que a cooperação entre os nodos cresça. De forma inversa, se a queda do índice de satisfação dos usuários com a taxa de download for abrupta, e a redução da satisfação devido ao custo de upload for significativa, então existe um ambiente propício para proliferação de nodos oportunistas. A realização e descrição desta pesquisa é composta de quatro etapas principais: i) a delimitação do cenário de live streaming e a definição do jogo para modelagem; ii) a definição do conjunto de estratégias e da função de utilidade; iii) a criação do modelo; iv) a análise do modelo e a apresentação dos resultados de simulação. A análise do modelo abrange três fases: i) análise estatística e comparação das características de download e upload dos dois simuladores utilizados; ii) avaliação do modelo de Teoria dos Jogos Evolucionários através de simulações; e iii) análise dos resultados evolucionários gerados pelo simulador de Teoria dos Jogos Evolucionários. / There is a growing interest in the market for networked multimedia applications. Live streaming applications that use the technology of P2P networks for distribution of live content have specially been the subject of great attention. Applications such as PPLive and PPStrem demonstrate that P2P live streaming applications are already possible with our present technology. Live streaming systems provide a multicast service in the application level for live broadcasts to users through the Internet. These systems executing in P2P networks have the potential to be highly robust, scalable and adaptive due to the characteristics of these scenarios. However, to take advantage of these potential properties, they must overcome some challenges: i) to maintain the playback quality even with the inherent dynamics of P2P networks; ii) to prevent that incorrect peers hide malicious behavior behind their anonymity; iii) to maintain the upload contribution of peers at acceptable levels. The upload contribution of peers is highly important because live streaming applications are cooperative applications. Therefore, every new user must help the application forwarding packets to other users, thereby maintaining the global upload capacity of the system. Unfortunately, the maintenance of cooperation in live streaming system is not a trivial task, since each node faces the social dilemma of self-interest (individually is always better to explore the cooperation of other users without reciprocity) versus cooperation to the group. The main contribution of this dissertation is the presentation of a mathematical model based on Evolutionary Game Theory, whose goal is to help understanding live streaming P2P applications and the factors that influence their correct operation. As a secondary contribution, this work provides a statistical analysis of download and upload behaviors of peers in live streaming P2P systems. The statistical analysis indicates that there is a decay in the download and upload variances, and that this decay follows a power law. The evolutionary results of the model indicate that, if the satisfaction of users with the download rate is smooth, and the reduction of satisfaction due to the upload cost is negligible, then there is a favorable environment for the growth of cooperation. Conversely, if the satisfaction of users with the download rate is abrupt, and the reduction of satisfaction due to the upload cost is significant, then there is a favorable environment to the proliferation of opportunistic nodes. The realization and description of this research is composed of four main steps: i) the definition of the live streaming scenario and the definition of the game to model this scenario; ii) the definition of the strategy set and of the utility function; iii) the suggestion of a model; iv) the analysis of the proposed model and the presentation of obtained results. The model analysis comprehends three phases: i) the statistical analysis and the comparison of the characteristics of download and upload of the two simulators used in this work; ii) the evaluation of the Evolutionary Game Theory model through simulation; and iii) the analysis of the results generated by the Evolutionary Game Theory simulator.
167

Muse : um ambiente para modelagem de aplicações multimidia interativas com tradutor para e-lotos / MUSE: an interactive multimedia applications specification environment with translator to e-LOTOS

Gaspary, Luciano Paschoal January 1998 (has links)
É notável o avanço da utilização de aplicações multimídia nos diversos setores da atividade humana. Independente da área, seja ela educação ou entretenimento, a possibilidade de agregar recursos dinâmicos como áudio e vídeo aos já largamente utilizados como texto e imagem acarreta em benefícios aos usuários destas aplicações. Além disso, com a popularização da Internet, ha uma crescente demanda pela sua execução em ambientes distribuídos. Este trabalho teve como objetivo desenvolver MUSE, um ambiente gráfico para modelagem de aplicações multimídia interativas. Através de uma interface gráfica avançada e de um novo modelo de autoria de alto nível, e possível a criação de sistemas complexos de forma rápida e intuitiva. 0 modelo de autoria proposto neste trabalho e adotado pelo ambiente prevê a possibilidade de os elementos que constituem a aplicação estarem dispersos em uma rede de computadores, permitindo a definição de limiares aceitáveis de atraso e componentes alternativos. Pela grande expressividade do modelo, no entanto, podem ser geradas especificações com inconsistências lógicas e temporais. Por esta razão, o ambiente prove ainda especificações E-LOTOS - uma extensão temporal de LOTOS - utilizadas para fins de analise e verificação, permitindo a validação dos requisitos temporais das aplicações definidas pelo autor. A formalização das especificações através de uma TDF, além de viabilizar sua validação, prove descrições sem ambigüidades, que podem ser alternativamente utilizadas por autores que sejam familiarizados com a técnica de descrição formal. Este trabalho é parte do projeto DAMD (Design de Aplicações Multimídia Distribuídas) dentro do programa PROTEM fase 2, que tem por objetivo fornecer uma metodologia que cubra o ciclo completo das aplicações multimídia distribuídas e que permita a um autor não especializado em métodos formais desenvolver essas aplicações naturalmente. / It is notable the advance of multimedia applications utilization in several fields of human activity. Independent from the area, whether education or entertainment, the possibility to aggregate dynamic resources like audio and video to the ones already widely used like text and image results in benefits to the users of such applications. Besides, with the popularization of the Internet, there is an increasing demand for their execution in distributed environments. This work presents MUSE, a graphical environment for modeling interactive multimedia applications. Through an advanced graphic interface and a new high-level authoring model, it is possible to create complex systems in a fast and intuitive way. The authoring model proposed in this work and adopted by the tool deals with media objects distributed in a computer network, allowing the definition of acceptable delay thresholds and alternative media objects. Due to the large expressiveness of the model, however, specifications can be generated with logical and temporary inconsistencies. For this reason, the tool also provides E-LOTOS specifications used with the purpose of analyzing and verifying the applications aiming at validating the temporal requirements defined by the author. The formalization of the specifications by means of a TDF, beyond making their validation possible, provides descriptions free of ambiguities, which may be alternatively used by authors familiarized with the formal description technique. This work is part of DAMD (Distributed Multimedia Applications Design) project, sponsored by the Brazilian research council. Its main objectives are to provide a methodology to completely cover the distributed multimedia applications development cycle and to allow authors who are not expert in formal methods to easily develop their applications.
168

ChangeLedge : change design and planning in networked systems based on reuse of knowledge and automation / ChangeLedge: projeto e planejamento de mudanças em sistemas de rede com base no reuso de conhecimento e automação

Cordeiro, Weverton Luis da Costa January 2009 (has links)
A gerência adequada de recursos e serviços de Tecnologia da Informação (TI) se tornou imperativa para o sucesso de organizações modernas. A Biblioteca de Infraestrutura de Tecnologia da Informação (Information Technology Infrastructure Library, ITIL) representa, nesse contexto, o framework mais popular para ajudar a alcançar esse fim. Para lidar com mudanças em TI, a ITIL define o processo de gerência de mudanças (change management), cujo principal objetivo é garantir que métodos e procedimentos padronizados são utilizados para o tratamento imediato e eficiente dessas mudanças. Para alcançar esse objetivo, é fundamental reutilizar a experiência adquirida com mudanças passadas no projeto de requisições futuras. A ITIL sugere o uso de modelos de mudanças (change models) como uma forma para permitir o reuso de tal experiência em mudanças recorrentes e similares. A criação de modelos de mudanças pode ser concretizada considerando duas abordagens distintas. Em uma abordagem top-down, operadores de TI podem projetar os modelos manualmente, com base no conhecimento adquirido no passado. Em uma perspectiva alternativa, bottom-up, esses modelos poderiam ser extraídos a partir de traços de mudanças passadas obtidos com orquestradores de mudanças. Na prática, no entanto, mudanças tem sido geralmente descritas e documentadas de forma ad hoc, devido `a falta de mecanismos adequados para apoiar o projeto das mesmas. Isso impede que o conhecimento adquirido na especificação, planejamento e condução de mudanças passadas seja reutilizado em requisições futuras. Para abordar esse problema, nesta dissertação são propostos (i ) o conceito de templates de mudança como um mecanismo para formalizar, preservar, e (re)usar conhecimento na especificação de mudanças recorrentes e similares, (ii ) um algoritmo para o refinamento automatizado de planos de mudanças em workflows executáveis, (iii ) um mecanismo para extrair templates de mudanças a partir de traços de execuções passadas, e (iv) uma solução fim-a-fim, apoiada por um sistema real, para permitir o planejamento e implantação de mudanças em TI. Para provar conceito e viabilidade técnica da solução proposta, foi realizada uma implementação prototípica de um sistema de gerência de mudanças chamado ChangeLedge, o qual foi utilizado para conduzir uma série de experimentos considerando mudanças típicas em TI. Os resultados alcançados indicam a efetividade da solução e eficiência do sistema, o qual é capaz de gerar planos de mudança executáveis e corretos em um período de tempo substancialmente menor que o que seria gasto por um operador humano experiente, e de extrair templates que descrevem com acurácia mudanças passadas executadas na organização. / Proper management of Information Technology (IT) resources and services has become imperative for the success of modern organizations. The IT Infrastructure Library (ITIL) represents, in this context, the most widely accepted framework to help achieve this end. In order to deal with IT changes, ITIL defines the change management process, whose main goal is to ensure that standardized methods and procedures are used for the efficient and prompt handling of these changes. To meet this goal, it is of paramount importance reusing the experience acquired from previous changes in the design of subsequent ones. ITIL suggests the use of change models as a mean of enabling the reuse of such experience across recorrent, similar changes. The creation of change models can be done considering two distinct approaches. In a top-down approach, IT operators may manually design models based on the knowledge owned/acquired in the past. In contrast, in a bottom-up perspective, these models could be discovered from past execution traces gathered from IT provisioning tools. In practice, however, changes have been usually described and documented in an ad hoc fashion, due to the lack of proper mechanisms to both support the change design process. This hampers knowledge acquired when specifying, planning, and carrying out previous changes to be reused in subsequent requests. To address this problem, in this thesis we propose (i ) the concept of change templates as a mechanism to formalize, preserve, and (re)use knowledge in the specification of (recurrent and similar) IT changes, (ii ) an algorithm for the automated refinement of change plans into actionable workflows, (iii ) a mechanism to discover change templates from traces of past changes, and (iv) an end-to-end solution, supported by a real system, to allow planning and implementation of IT changes to be designed and executed. To prove concept and technical feasibility of the proposed solution, we have developed a prototypical implementation of a change management system called ChangeLedge and used it to carry out a set of experiments, considering typical IT changes. The results obtained indicate the effectiveness of the solution and efficiency of the system, which is able to generate accurate and actionable change plans in substantially less time than would be spent by a skilled human operator, and to extract templates that accurately describe IT change procedures previously executed in the organization.
169

CONTRAM : middleware voltado a interoperabilidade entre sistemas de gerenciamento de tráfego urbano e redes de controladores semafóricos sob os paradigmas de sistemas de transportes inteligentes

Morais, Lincoln Luiz de January 2001 (has links)
Sistemas que utilizam tecnologias computacionais no tratamento de problemas relativos ao trânsito são classificados como ITS ou Intelligent Transportation System [FAR 97]. Esses sistemas buscam, através de sincronismo e eficiência no controle de sinais de tráfego, gerenciar o fluxo de veículos na malha viária minimizando o problema de congestionamento urbano e, consequentemente, problemas decorrentes desse congestionamento como um maior consumo de combustível, maior tempo de espera para veículos específicos como ambulâncias, bombeiros, polícia e transporte coletivo, e maiores índices de poluição ambiental, sonora e atmosférica, entre outros [FED 99A]. Atuando na coleta dos dados a serem tratados e processados por um Sistema de Gerenciamento de Tráfego Urbano ou SGTU, estão os dispositivos de controle de tráfego, como semáforos e sensores para detectar e quantificar o volume de veículos e seus respectivos controladores. Computacionalmente, são fatores relevantes a interoperabilidade entre esses dispositivos de controle e padronizações adotadas, de forma que um SGTU possa evoluir através da agregação de novas facilidades e recursos ou ainda desabilitar ou modificar os já existentes. Dada as características da administração pública e dos procedimentos de aquisição, são adquiridos controladores de diferentes fabricantes e modelos, dificultando a integração entre os mesmos em função de suas tecnologias proprietárias e da falta de uma política e esforço governamental em busca de padronizações para o setor, principalmente no que diz respeito à interoperabilidade. Recentemente iniciou-se uma mobilização para se estabelecer padrões voltados à área de transporte nos Estados Unidos [EUL 95], Japão [JAP 99] e Europa [KAR 99], através da participação dos órgãos que administram o tráfego urbano, dos fabricantes de sistemas de hardware e software, da comunidade acadêmica, dos órgãos de padronizações locais e das variadas instâncias da esfera governamental. Este trabalho apresenta o CONTRAM, modelo de um middleware que, tratando os controladores de dispositivos de controle tráfego instalados ao longo da malha viária baseado nos paradigmas de sistemas distribuídos, possa ser utilizado como interface entre estes e as aplicações computacionais de gerenciamento de tráfego, permitindo a integração de diferentes especificações em um único sistema. O seu escopo é atender às transações de consulta e configuração de valores dos dados utilizados para controlar, monitorar e gerenciar o tráfego de veículos, liberando um SGTU de conhecer detalhes técnicos envolvidos na comunicação com os controladores. O modelo baseia-se em uma arquitetura multicamadas, 4-tier, permitindo o gerenciamento de recursos de forma centralizada ou distribuída, neste último trocando dados através da internet, e integra-se aos sistemas legados e OO através do método black-box e chamada de objetos respectivamente. Foi projetado tendo em mente a utilização de padrões abertos da indústria da Informática e de Transportes, a interoperabilidade entre diferentes elementos tecnológicos voltados ao controle de tráfego e a expansibilidade segura de um SGTU. Para alcançar seu objetivo, faz uso de tecnologias baseadas em metadados e agentes SNMP. / Systems that use computational technologies in the handling of the traffic problems are classified as ITS or Intelligent Transportation System. These systems search through synchronism and efficiency in traffic signs control, to manage the stream of vehicles in the road network, minimizing the problem of urban congestion and, consequently, decurrent problems of this congestion as a major fuel consumption, major waiting time for specific vehicles as ambulances, firemen, policy and collective carrier and greaters indices of ambient pollution, sonorous and atmospheric, amongst others. Acting in the data collection to be treat and processed for a Urban Traffic Control System or UTCS, they are the traffic control devices, as traffic lights and sensors to detect and quantify the volume of vehicles and, its respective controllers. Computational, important factors are the interoperability among these control devices and standardizations adopted, allowing UTCS customize through the new easinesses and features aggregation or still disable or modify already the existing ones. Given the features of the public management and the acquisition procedures, different controllers models of different manufacturers are acquired, making it difficult the integration in function of its proprietary technologies and the lack of one politics and governmental effort in considering standardizations for the sector, mainly about interoperability. Recently was initiated a mobilization of standards establishing to the Transportation area in the United States, Japan and Europe, through the participation of the agencies that manage the urban traffic, hardware and software solutions providers, academic community, local standardizations agencies and the varied instances of the governmental sphere. This work presents the CONTRAM, a middleware model that, treating the traffic controllers installed in road networks based in distributed systems paradigms, can be used as interface between the computational applications of traffic management and the controllers of control devices, allowing the integration of different specifications in an only system. Its target is to take care of to get and set transactions on data values used to control, monitor and manage the vehicles traffic, liberating a UTCS to know technician details in the communication with the controllers. The model is based on multilayers architecture, 4-tier, allowing the resources management in centered or distributed form, in last one changing data through the Internet and it is combined to the legacies systems and OO through the black-box and object call method respectively. It was projected having in mind the use of open standards of the Transportation and Computer science industries , interoperability between different traffic control technological elements and the UTCS expansibility safe. To reach its objective, it makes use of metadata and SNMP agents technologies.
170

AFIDS : arquitetura para injeção de falhas em sistemas distribuídos / AFIDS - architecture for fault injection in distributed systems

Sotoma, Irineu January 1997 (has links)
Sistemas distribuídos já são de amplo uso atualmente e seu crescimento tende a se acentuar devido a popularização da Internet. Cada vez mais computadores se interligam e trocam informações entre si. Nestes sistemas, requerimentos como confiabilidade, disponibilidade e desempenho são de fundamental importância para a satisfação do usuário. Estes requerimentos podem ser atendidos aproveitando-se da redundância já existente com as maquinas interligadas. Mas para atingir os requisitos de confiabilidade e disponibilidade, protocolos tolerantes a falhas devem ser construídos. Tolerância a falhas visa continuar a fornecer o serviço de algum protocolo, aplicação ou sistema a despeito da ocorrência de falhas durante a sua execução. Tolerância a falhas pode ser implementada por hardware ou por software através de mascaramento ou recuperação de falhas. Recentemente, a injeção de falhas implementada por software tem sido um dos principais métodos utilizados para validar protocolos tolerantes a falhas em sistemas distribuídos, e muitas ferramentas tem sido construídas. Contudo, não ha nenhuma biblioteca de classes orientada a objetos para auxiliar novos pesquisadores na construção da sua própria ferramenta de injeção de falhas. Este trabalho apresenta uma proposta de uma arquitetura orientada a objetos escrita em C++ para sistemas operacionais UNIX usando sockets, de modo a alcançar aquele objetivo. Esta arquitetura é chamada de AFIDS (Architecture for Fault Injection in Distributed Systems). AFIDS pretende fornecer uma estrutura básica que aborda as questões principais no processo de injeção de falhas implementada por software: a) a Geraldo de parâmetros de falhas para o experimento, b) o controle da localização, tipo e tempo da injeção de falhas, c) a coleta de dados do experimento, d) a injeção efetiva da falha e a análise dos dados coletados de modo a obter medidas de dependabilidade sobre o protocolo tolerante a falhas. Ou seja, AFIDS pretende ser um framework para a construed° de ferramentas de injeção de falhas. Segundo [BOO 961: "Através do uso de frameworks maduros, o esforço de desenvolvimento torna-se mais fácil, porque os principais elementos funcionais podem ser reutilizados". AFIDS leva em consideração várias questões de projeto que foram obtidas através da analise de oito ferramentas de injeção de falhas por software para sistemas distribuídos: FIAT [SEG 88], EFA [ECH 92. ECH 94], SFI [ROS 93], DOCTOR [HAN 93], PFI [DAW 94], CSFI [CAR 95a], SockPFI [DAW 95] e ORCHESTRA [DAW 96]. Para auxiliar a construção de AFIDS, é apresentada uma ferramenta de injeção de falhas que utiliza um objeto injetor de falhas por processo do protocolo sob teste. AFIDS e esta ferramenta são implementadas em C++ usando sockets em Linux. Para que AFIDS se tome estável e consistente e necessário que outras ferramentas sejam construídas baseadas nela. Isto é enfatizado porque, segundo [BOO 96]: "Um framework são começa a alcançar maturidade apos a sua aplicação em pelo menos três ou mais aplicações distintas". / Currently, distributed systems are already in wide use. Because of the Internet popularization their growth tend to arise. More and more computers interconnect and share information. In these systems, requirements such as reliability, availability and performance are fundamental in order to satisfy the users. These requirements can be reached taking advantage of the redundancy already associated with the computers interconnected. However, to reach the reliability and availability requirements, fault tolerant protocols must be built. Fault tolerance aims to provide continuous service of some protocol, application or system in despite of fault occurrence during its execution. Fault tolerance can be implemented in hardware or software using fault masking or recovery. Recently, the software-implemented fault injection has been one of the main methods used to validate fault tolerant protocols in distributed systems, and many tools has been built. However, there is no object-oriented class library to aid new researchers on the buildin g of own fault injection tool. This work presents a proposal of an objectoriented architecture written in C++ for UNIX operating systems using sockets, in order to reach that purpose. This architecture is called AFIDS (Architecture for Fault Injection in Distributed Systems). AFIDS intends to provide a basic structure that addresses the main issues of the process of software-implemented fault injection: a) the generation of fault parameters for the experiment, b) the control of the location, type and time of the fault injection, c) the data collection of the experiment, d) the effective injection of the faults, and e) the analysis of collected data in order to obtain dependability measures about the fault tolerant protocol sob test. According to [BOO 96]: "By using mature frameworks, the effort of the development team is made even easier, because now major functional elements can be reused.". AFIDS regards various design issues that were obtained from the analysis of eight tools of software-implemented fault injection for distributed systems: FIAT [SEG 88], EFA [ECH 92, ECH 94], SFI EROS 93], DOCTOR [HAN 93], PFI [DAW 94], CSFI [CAR 95a], SockPFI [DAW 95] e ORCHESTRA [DAW 96]. In order to aid the AFIDS building, a fault injection tool that uses one injector object in each process of protocol under test is shown. AFIDS and this tool are implemented in C++ using sockets on Linux operating system. AFIDS will become stable and consistent after the building of others tools based on it. This is emphasized because, according to [BOO 96]: "A framework does not even begin to reach maturity until it has been applied in at least three or more distinct applications".

Page generated in 0.1596 seconds