• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 304
  • 6
  • 5
  • 2
  • 1
  • Tagged with
  • 318
  • 318
  • 179
  • 162
  • 94
  • 86
  • 70
  • 50
  • 46
  • 42
  • 41
  • 37
  • 37
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Avaliação de desempenho para seleção de abordagens visando à composição automática de web services em arquiteturas orientadas a serviços e com QoS / Performance evaluation for selection of approaches aimed at automatic composition of web services in service-oriented architectures and with QoS

Bruno Tardiole Kuehne 23 February 2015 (has links)
Esta tese de doutorado tem como objetivo principal, a proposta de um sistema onde é possível avaliar abordagens diferentes para composição automática de Web services, baseando-se em parâmetros de QoS que dependem da execução para serem medidos. O objetivo foi atingido por meio da implementação de um sistema denominado AWSCS (Automatic Web Service Composition System). O AWSCS é um sistema onde é possível implementar abordagens diferentes para composição automática de Web services e também executar os fluxos resultantes dessas abordagens. Com o objetivo de demonstrar os resultados desta tese de doutorado, foram elaborados cenários, onde fluxos empíricos foram construídos para fazer a demonstração do funcionamento do AWSCS, uma vez que algoritmos para composição automática não foram encontrados para download na literatura. Com os resultados foi possível fazer um estudo do comportamento da execução de fluxos de Web services compostos, quando fluxos com mesma funcionalidade, mas estratégias de solução do problema diferentes foram comparados. Além disso, foi possível observar a influência das cargas aplicadas no sistema em execução, uma vez que o tipo de carga submetida ao sistema é um fator importante para se definir qual abordagem para composição de Web services pode levar ao melhor desempenho, de acordo com o ambiente e tipos de cargas que ele vai receber, quando em produção. / This PhD thesis has as main goal the propose of a system where it is possible to evaluate different approaches for automatic composition ofWeb services, based on QoS parameters that depend on the execution to be measured. The goal was reached by means of the implementation of a system named AWSCS (Automatic Web Service Composition System). The AWSCS is a system where it is possible to implement different approaches for automatic composition of Web services and also to execute the resulting flows from these approaches. Aiming at demonstrating the results of this PhD thesis different scenarios were developed, where empirical flows were built to demonstrate the operation of AWSCS, once algorithms for automatic composition were not found to download in the literature,. With the results it was possible to study the behavior of running composite Web services, when flows with the same functionality but different problem-solving strategies were compared. Furthermore it was possible to observe the influence of the load applied on the running system once the type of load submitted to the system is an important factor to define which approach for the Web service composition can take to the best performance according to the environment and types of load it will receive when in production.
282

UBIMID: um middleware de integração e sensível ao contexto voltado para aplicações e sistemas inteligentes de transporte.

Oliveira Junior, Gilson Medeiros de 26 February 2014 (has links)
Submitted by Luiz Felipe Barbosa (luiz.fbabreu2@ufpe.br) on 2015-03-09T13:59:48Z No. of bitstreams: 2 DISSERTAÇÃO Gilson Medeiros de Oliveira Júnior.pdf: 2514749 bytes, checksum: 5cb30bafc7935aa9accc6f4541777d22 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-09T13:59:48Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Gilson Medeiros de Oliveira Júnior.pdf: 2514749 bytes, checksum: 5cb30bafc7935aa9accc6f4541777d22 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-02-26 / A mobilidade urbana é uma questão preocupante que vem ganhando bastante atenção nos últimos anos, principalmente, devido a alguns fatores como, a proximidade da realização de eventos internacionais como a Copa do Mundo de Futebol de 2014 e as Olimpíadas de 2016, além do aumento no número de carros, a má qualidade do transporte público urbano, a falta de infra-estrutura viária e o aumento da demanda do transporte público, graças ao aumento populacional. Aliado a resolução ou a amenização desses problemas está o crescimento tecnológico, principalmente no que diz respeito a tecnologia móvel, através da popularização e do uso de dispositivos como: smartphones e tablets, por exemplo. Esse crescimento tecnológico torna a computação cada vez mais presente na vida e no cotidiano das pessoas e, com isso, surge um novo paradigma da computação chamado de Computação Ubíqua. Nesse cenário de utilização de tecnologia móvel e da Computação Ubíqua, destacam-se as aplicações sensíveis ao contexto, que podem ser acessadas em qualquer lugar e a qualquer momento, levando em consideração informações estáticas e dinâmicas dos seus usuários. Essas aplicações, na maioria das vezes, precisam de uma infra estrutura distribuída especializadas provida através de middleware para o gerenciamento (processamento, aquisição e armazenamento) de informações contextuais. Este trabalho propõe uma arquitetura de middleware que busca prover suporte ao desenvolvimento de aplicações ubíquas e sensíveis ao contexto. A arquitetura proposta foi definida após o estudo do estado da arte e dos requisitos necessários para o desenvolvimento desse novo tipo de aplicações. A arquitetura é baseada, principalmente, na criação e acoplamento de componentes, tornando fácil sua extensão e manutenção. A implementação da arquitetura proposta é validada através da desenvolvimento de um middleware chamado UbiMid que atua no domínio dos sistemas inteligentes de transporte público, desenvolvido no âmbito do projeto UbiBus.
283

Grades computacionais baseadas em modelos economicos / Grid computing based on economic models

Rosa, Ricardo da 15 August 2018 (has links)
Orientador: Maria Beatriz Felgar de Toledo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-15T11:55:40Z (GMT). No. of bitstreams: 1 Rosa_Ricardoda_M.pdf: 1883897 bytes, checksum: 06a13cb1deacddc65e4123779e1ac975 (MD5) Previous issue date: 2010 / Resumo: Computação em grade e um paradigma que permite o compartilhamento de recursos heterogêneos, geograficamente distribuídos e sob administrações independentes. Esse compartilhamento deve ser realizado para otimizar a utilização de recursos e atender os requisitos de qualidade de serviço. Modelos econômicos podem ser aplicados para fornecer uma alocação justa desses recursos e incentivar a disponibilização de um maior número de recursos na grade. Nesta dissertação, será discutida uma arquitetura de grade baseada em modelos econômicos, em especial, os vários modelos de leiloes para permitir negociação entre um fornecedor e vários consumidores de recursos. Serú realizada uma anúlise sobre as diversas modalidades de leilão para verificar o comportamento de consumidores e fornecedores de recursos em um ambiente de grade / Abstract: Grid computing is a paradigm that allows the sharing of heterogeneous resources, geographically distributed and under independent administration. Sharing must be done to optimize the use of resources and meet quality of service requirements. Economic models can be applied to provide a fair allocation of these resources and to promote the entry of a greater number of resources into a grid. In this dissertation, a grid architecture based on economic models will be discussed, in particular, several auction models to allow negotiation between a provider and many consumer of resources. Different types of auction models will be analyzed to verify the behavior of consumers and providers of resources in a grid environment / Mestrado / Sistemas de Computação / Mestre em Ciência da Computação
284

Um middleware Peer-to-Peer descentralizado para a computação de workflows / A descentralized P2P middleware for workflow computing

Siqueira, Thiago Senador de 14 March 2008 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-11T15:56:37Z (GMT). No. of bitstreams: 1 Siqueira_ThiagoSenadorde_M.pdf: 7328903 bytes, checksum: f944c1a0baac79f360047d39c4871f32 (MD5) Previous issue date: 2008 / Resumo: A computação sobre P2P tem surgido como uma solução alternativa e complementaràs grades computacionais. O uso da tecnologia P2P é capaz de prover a flexibilização e descentralização dos processos de execução e gerenciamento de workflows nas grades computacionais. Neste trabalho é apresentado um middleware P2P completamente descentralizado para a computação de workflows. O middleware coleta o poder de processamento compartilhado pelos peers para possibilitar a execução de workflows, modelados como DAGs, compostos por um conjunto de tarefas dependentes. Através do processo distribuído de escalonamento de tarefas e do mecanismo de tolerância a faltas baseado em leasing, o middleware atinge um nível alto de paralelismo na execução e eficiência na recuperação de execuções em ocorrência de faltas. O middleware é implementado em Java, juntamente com RMI e a biblioteca JXTA. Os resultados experimentais obtidos mostram a eficiência do middleware na execução distribuída dos workflows assim como a recuperação rápida de execução em cenários com faltas / Abstract: P2P Computing has been raised as an alternative and complementary solution to Grid Computing. The use of P2P technology is able to provide a flexible and decentralized execution and management of Grid workflows. In this work we present a completely decentralized P2P middleware for workflow computing. The middleware collects the shared processing power of the peers in order to execute workflows, modeled as DAG structures, composed of a set of dependent tasks. Through a distributed scheduling algorithm and a leasing-based fault tolerance mechanism, the middleware achieves high execution parallelism and efficient execution recovery in failure occurrences. The middleware is implemented in Java, through RMI and the JXTA library. The obtained experimental results show the efficiency of the middleware in the distributed execution of workflows as well as the fast execution recovery / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
285

Detecção de anomalias em aplicações Web utilizando filtros baseados em coeficiente de correlação parcial / Anomaly detection in web applications using filters based on partial correlation coefficient

Silva, Otto Julio Ahlert Pinno da 31 October 2014 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2015-03-09T12:10:52Z No. of bitstreams: 2 Dissertação - Otto Julio Ahlert Pinno da Silva - 2014.pdf: 1770799 bytes, checksum: 02efab9704ef08dc041959d737152b0a (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Erika Demachki (erikademachki@gmail.com) on 2015-03-09T12:11:12Z (GMT) No. of bitstreams: 2 Dissertação - Otto Julio Ahlert Pinno da Silva - 2014.pdf: 1770799 bytes, checksum: 02efab9704ef08dc041959d737152b0a (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-03-09T12:11:12Z (GMT). No. of bitstreams: 2 Dissertação - Otto Julio Ahlert Pinno da Silva - 2014.pdf: 1770799 bytes, checksum: 02efab9704ef08dc041959d737152b0a (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2014-10-31 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Finding faults or causes of performance problems in modernWeb computer systems is an arduous task that involves many hours of system metrics monitoring and log analysis. In order to aid administrators in this task, many anomaly detection mechanisms have been proposed to analyze the behavior of the system by collecting a large volume of statistical information showing the condition and performance of the computer system. One of the approaches adopted by these mechanism is the monitoring through strong correlations found in the system. In this approach, the collection of large amounts of data generate drawbacks associated with communication, storage and specially with the processing of information collected. Nevertheless, few mechanisms for detecting anomalies have a strategy for the selection of statistical information to be collected, i.e., for the selection of monitored metrics. This paper presents three metrics selection filters for mechanisms of anomaly detection based on monitoring of correlations. These filters were based on the concept of partial correlation technique which is capable of providing information not observable by common correlations methods. The validation of these filters was performed on a scenario of Web application, and, to simulate this environment, we use the TPC-W, a Web transactions Benchmark of type E-commerce. The results from our evaluation shows that one of our filters allowed the construction of a monitoring network with 8% fewer metrics that state-of-the-art filters, and achieve fault coverage up to 10% more efficient. / Encontrar falhas ou causas de problemas de desempenho em sistemas computacionais Web atuais é uma tarefa árdua que envolve muitas horas de análise de logs e métricas de sistemas. Para ajudar administradores nessa tarefa, diversos mecanismos de detecção de anomalia foram propostos visando analisar o comportamento do sistema mediante a coleta de um grande volume de informações estatísticas que demonstram o estado e o desempenho do sistema computacional. Uma das abordagens adotadas por esses mecanismo é o monitoramento por meio de correlações fortes identificadas no sistema. Nessa abordagem, a coleta desse grande número de dados gera inconvenientes associados à comunicação, armazenamento e, especialmente, com o processamento das informações coletadas. Apesar disso, poucos mecanismos de detecção de anomalias possuem uma estratégia para a seleção das informações estatísticas a serem coletadas, ou seja, para a seleção das métricas monitoradas. Este trabalho apresenta três filtros de seleção de métricas para mecanismos de detecção de anomalias baseados no monitoramento de correlações. Esses filtros foram baseados no conceito de correlação parcial, técnica que é capaz de fornecer informações não observáveis por métodos de correlações comuns. A validação desses filtros foi realizada sobre um cenário de aplicação Web, sendo que, para simular esse ambiente, nós utilizamos o TPC-W, um Benchmark de transações Web do tipo E-commerce. Os resultados obtidos em nossa avaliação mostram que um de nossos filtros permitiu a construção de uma rede de monitoramento com 8% menos métricas que filtros estado-da-arte, além de alcançar uma cobertura de falhas até 10% mais eficiente.
286

e-ScienceNet: uma rede ponto a ponto semântica para aplicações em e-science

Novais, Edson Bruno 10 August 2012 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-06-22T19:11:26Z No. of bitstreams: 1 edsonbrunonovais.pdf: 2331943 bytes, checksum: 8120e1755bb41cf7f2d45dd996308c9c (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-08-07T19:25:53Z (GMT) No. of bitstreams: 1 edsonbrunonovais.pdf: 2331943 bytes, checksum: 8120e1755bb41cf7f2d45dd996308c9c (MD5) / Made available in DSpace on 2017-08-07T19:25:53Z (GMT). No. of bitstreams: 1 edsonbrunonovais.pdf: 2331943 bytes, checksum: 8120e1755bb41cf7f2d45dd996308c9c (MD5) Previous issue date: 2012-08-10 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Atualmente estão acontecendo significativas mudanças na natureza do processo de pesquisa científica. Em particular, tem-se uma maior colaboração entre grandes grupos de pesquisadores, o que leva a um aumento no uso de técnicas de processamento de informação, e uma maior necessidade de compartilhar resultados e observações entre os participantes do processo. Utilizando tecnologias como Redes Ponto a Ponto e Web Semântica, conseguimos criar um único ponto de acesso a bases de conhecimento dispersas e aplicações científicas distribuídas, onde os cientistas possam trabalhar com informações heterogêneas e criar comunidades científicas de acordo com suas especialidades e interesses. Este trabalho apresenta a e-ScienceNet, uma arquitetura de suporte ao armazenamento, compartilhamento e execução de experimentos científicos em uma Rede Ponto a Ponto Semântica científica. Para tal, desenvolvemos um protótipo que realiza a interação entre os diferentes nós da rede nas distintas comunidades científicas semânticas. / Currently, there are taking place significant changes in the nature of scientific research. In particular, there is a greater collaboration among large groups of researchers, which leads to an increase in the use of information processing techniques, and a greater need to share results and observations among the participants in the process. Using technologies such as Peer to Peer Networks and the Semantic Web, we can create a single point of access to distributed knowledge bases and scientific applications, where scientists can work with heterogeneous information and create scientific communities according to their specialties and interests. This work presents the e-ScienceNet as an architecture that support the storage, share and execution of scientific experiments in a scientific Semantic Peer to Peer Network. To this end, we developed a prototype that performs the interaction between the different network nodes in different semantic scientific communities.
287

UMA NOVA ABORDAGEM PARA REDUÇÃO DE MENSAGENS DE CONTROLE EM DETECTORES DE DEFEITOS / A New Approach to Reduce Control Messages in Failure Detectors

Turchetti, Rogério Corrêa 15 May 2006 (has links)
An unreliable failure detector is a basic building block widely used to implement fault tolerance techniques in asynchronous distributed systems. The use of failure detectors comes from the impossibility to implement deterministic agreement protocols in these environments, since it is not possible to distinguish a crashed process from a very slow process. However, the massive use of distributed computational resources claims for solutions applicable in large scale distributed systems. In these systers, traditional failure detector algorithms can present scalability problems, such as control message explosion problem, because a large number of messages could compromise the quality of service of failure detectors and the system scalability. The goal of this dissertation is minimize the problem of control message explosion generated by failure detector algorithms in large scale processes monitoring. To do that, we propose a new approach to reduce the number of control messages from reusing messages. Our approach explores the manipulation of the interrogation period or heartbeat period, maximizing the reuse of messages, and it is organized by two strategies: ATF (Frequency Rate Adaptation), that reuses failure detector messages to suppress control messages; and AMA (Reusing of Application Message), that reuses client application messages to suppress control messages. As result, the resulting approach is generic, in the sense that it could be applied to any failure detector algorithm, and practical, in the sense that for its, the traditional failure detectors algorithms need only to change the semantic of control messages. From our experimental results, we demonstrate that our approach reduces the number of control messages, minimizing the message explosion problem, without compromising the quality of service of the failure detector / Detectores de defeitos não con�áveis são amplamente utilizados como bloco básico na implementa ção de técnicas de tolerância a falhas em sistemas distribuídos assíncronos. Sua utilização nestes ambientes é motivada pela impossibilidade de implementação de protocolos de acordo determinísticos, pois não há como distinguir processos defeituosos daqueles de acesso mais lento. Entretanto, o uso maciço de recursos computacionais exige soluções aplicáveis a sistemas distribuídos de larga escala. Neste contexto, algoritmos tradicionais de detecção de defeitos podem apresentar problemas de escalabilidade, tal como o de explosão de mensagens. O grande número de mensagens enviadas pode comprometer a qualidade de serviço do detector de defeitos e a escalabilidade do sistema. Esta dissertação visa minimizar o problema da explosão de mensagens de controle geradas pelos algoritmos de detecção de defeitos em ações de monitoramento de processos. Para tal, propõe-se uma nova abordagem para redução do número de mensagens de controle através do reaproveitamento de mensagens. A abordagem explora a manipulação da periodicidade de envio das mensagens de controle, maximizando o reaproveitamento de mensagens, e é composta por duas estratégias: ATF (Adaptação da Taxa de Freqüência), a qual reaproveita mensagens dos próprios algoritmos de detecção para suprir mensagem de controle; e AMA (Aproveitamento de Mensagens da Aplicação), a qual reaproveita mensagens das aplicações clientes para o mesmo objetivo da ATF. Como resultado, têm-se uma abordagem genérica, no sentido que pode ser aplicada a qualquer algoritmo de detecção, e prática, no sentido que algoritmos tradicionais de detectores de defeitos necessitam apenas alterar a semântica das mensagens de controle para utilizá-la. Através de experimentos demonstra-se que sua aplicação reduz o número de mensagens de controle, minimizando o problema da explosão de mensagens, sem comprometer a qualidade de serviço do detector de defeitos
288

Uma abordagem de predição da dinâmica comportamental de processos para prover autonomia a ambientes distribuídos / An approach to provide autonomy to distributed environments by predicting the dynamics of process behavior

Evgueni Dodonov 01 July 2009 (has links)
A evolução de sistemas distribuídos resultou em aumento significativo de complexidade para manutenção e gerenciamento, tornando pouco eficientes técnicas convencionais baseadas em intervenções manuais. Isso motivou pesquisas que deram origem ao paradigma de computação autônoma (Autonomic Computing), que provê aspectos de auto-configuração, auto-recuperação, auto-otimização e auto-proteção a fim de tornar sistemas auto-gerenciáveis. Nesse contexto, esta tese teve como objetivo prover autonomia a ambientes distribuídos, sem a necessidade de mudar o paradigma de programação e as aplicações de usuários. Para isso, propôs-se uma abordagem que emprega técnicas para compreensão e predição de dinâmicas comportamentais de processos, utilizando abordagens de sistemas dinâmicos, inteligência artificial e teoria do caos. Os estudos realizados no decorrer desta pesquisa demonstraram que, ao predizer padrões comportamentais, pode-se otimizar diversos aspectos de computação distribuída, suportando tomadas de decisão autônomas pelos ambientes. Para validar a abordagem proposta, foi desenvolvida uma política de escalonamento distribuído, denominada PredRoute, a qual utiliza o conhecimento sobre o comportamento de processos para otimizar, transparentemente, a alocação de recursos. Experimentos realizados demonstraram que essa política aumenta o desempenho em até 4 ordens de grandeza e apresenta baixo custo computacional, o que permite a sua adoção para escalonamento online de processos / The evolution of distributed systems resulted in a significant growth in management and support complexities, which uncovered the inefficiencies incurred by the usage of conventional management techniques, based in manual interventions. This, therefore, has motivated researches towards the concept of Autonomic Computing, which provides aspects of self-configuration, self-healing, self-optimization and self-protection, aiming at developing computer systems capable of self-management. In this context, this thesis was conceived with the goal of providing autonomy to distributed systems, without changing the programming paradigm or user applications. In order to reach this goal, we proposed an approach which employs techniques capable of modelling and predicting the dynamics of application behavior, using concepts introduced in dynamical systems, artificial intelligence, and chaos theory. The obtained results demonstrated that it is possible to optimize several aspects of distributed computing, providing support for autonomic computing capabilities to distributed environments. In order to validate the proposed approach, a distributed scheduling policy was developed, named PredRoute, which uses the knowledge about the process behavior to transparently optimize the resource allocation. Experimental results demonstrated that this policy can improve the system performance by up to a power of 4, and also requires a considerably low computational cost, which suggests its adoption for online process scheduling in distributed environments
289

WSARCH: Uma arquitetura para a provisão de web services com qualidade de serviço / WSARCH: an architecture for web services provisioning with quality of service

Júlio Cezar Estrella 18 May 2010 (has links)
Esta tese tem como objetivo o projeto e implementação de uma arquitetura orientada a serviços, denominada WSARCH - Web Services Architecture, que possibilita acesso a Web Services com Qualidade de Serviço (QoS). Os atributos de QoS que devem ser considerados, visando à avaliação de desempenho deWeb services e a obtenção de QoS em uma arquitetura orientada a serviços, são identificados e discutidos. Esses atributos de QoS são mapeados para os componentes participantes de uma arquitetura orientada a serviços que incorpora qualidade de serviço. A arquitetura proposta prevê a monitoração dos provedores de serviços e um módulo que utiliza os dados obtidos para a localização do serviço apropriado. Visando a validação da arquitetura proposta e dos atributos definidos desenvolveu-se um protótipo da WSARCH. O protótipo desenvolvido permite que estudos de avaliação de desempenho sejam realizados considerando os diferentes componentes da arquitetura, algoritmos, protocolos e padrões. A proposta da WSARCH se insere em um contexto em que é importante definir como deve ser projetada uma arquitetura SOA com foco em desempenho, uma vez que a correta caracterização do que avaliar, e como avaliar, se faz necessário. Nesta tese, a avaliação de desempenho está focada nas diferentes entidades que participam de uma arquitetura orientada a serviço: cliente, provedor e os demais participantes / This thesis aims at the design and implementation of a service-oriented architecture, named WSARCH - Web Services Architecture, which allows accessing Web Services with Quality of Service (QoS). The attributes of QoS that shall be considered, aiming at evaluating the performance of Web Services in order to achieve QoS in a service-oriented architecture are identified and discussed. These QoS attributes were mapped to the components participating in a service-oriented architecture that incorporates quality of service. The proposed architecture provides the monitoring of service providers and a module that uses the data to locate the appropriate service. Aiming at the validation of the proposed architecture and the set of attributes proposed, a prototype of WSARCH was developed. The prototype allows performance evaluation studies being conducted considering the different components of the architecture, algorithms, protocols and standards. The proposal of WSARCH is inserted in a context where is important to define how a SOA architecture focusing on performance shall be designed, since the correct characterization of what to evaluate, and how to evaluate is necessary. In this thesis, the evaluation of performance is focused on the different entities participating in a service-oriented architecture: client, provider and other participants
290

Um processo de desenvolvimento de software focado em sistemas distribuídos autonômicos / A software development process focused on autonomic distributed systems

Pedro Felipe do Prado 20 June 2017 (has links)
Os Sistemas Distribuídos (SDs) tem apresentado uma crescente complexidade no seu gerenciamento, além de possuir a necessidade de garantir Qualidade de Serviço (QoS) aos seus usuários. A Computação Autonômica (CA) surge como uma forma de transformar os SDs em Sistemas Distribuídos Autonômicos (SDAs), com capacidade de auto-gerenciamento. Entretanto, não foi encontrado um processo de desenvolvimento de software, focado na criação de SDAs. Na grande maioria dos trabalhos relacionados, simplesmente é apresentado um SD, juntamente com qual aspecto da CA deseja-se implementar, a técnica usada e os resultados obtidos. Isso é apenas uma parte do desenvolvimento de um SDA, não abordando desde a definição dos requisitos até a manutenção do software. Mais importante, não mostra como tais requisitos podem ser formalizados e posteriormente solucionados por meio do auto-gerenciamento fornecido pela CA. Esta tese foca na proposta de um processo de desenvolvimento de software voltado para SDAs. Com esse objetivo, foram integradas diferentes áreas de conhecimento, compreendendo: Processo Unificado de Desenvolvimento de Software (PU), SDs, CA, Pesquisa Operacional (PO) e Avaliação de Desempenho de Sistemas Computacionais (ADSC). A prova de conceito foi feita por meio de três estudos de caso, todos focando-se em problemas NP-Difícil, são eles: (i) otimização off-line (problema da mochila com múltiplas escolhas), (ii) otimização online (problema da mochila com múltiplas escolhas) e (iii) criação do módulo planejador de um gerenciador autonômico, visando realizar o escalonamento de requisições (problema de atribuição generalizado). Os resultados do primeiro estudo de caso, mostram que é possível usar PO e ADSC para definir uma arquitetura de base para o SDA em questão, bem como reduzir o tamanho do espaço de busca quando o SDA estiver em execução. O segundo, prova que é possível garantir a QoS do SDA durante sua execução, usando a formalização fornecida pela PO e sua respectiva solução. O terceiro, prova que é possível usar a PO para formalizar o problema de auto-gerenciamento, bem como a ADSC para avaliar diferentes algoritmos ou modelos de arquitetura para o SDA. / Distributed Systems (DSs) have an increasing complexity and do not have their management, besides having a quality of service (QoS) to its users. Autonomic Computing (AC) emerges as a way of transforming the SDs into Autonomous Distributed Systems (ADSs), with a capacity for self-management. However, your software development process is focused on creating SDAs. In the vast majority of related works, simply an SD model, along with what aspect of the AC implement, a technique used and the results obtained. This is only a part of the development of an ADS, not approaching from an definition of requirements for a maintenance of software. More importantly, it does not show how such requirements can be formalized and subsequently solved through the self-management provided by AC. This proposal aims at a software development process for the DASs. To this end, different areas of knowledge were integrated, including: Unified Software Development Process (PU), SDs, CA, Operations Research (OR) and Computer Systems Performance Evaluation (CSPE). The proof of concept was made through three case studies, all focusing on NP-Hard problems, namely: (i) off-line optimization (problem of the backpack with multiple choices), (ii) (Problem of the backpack with multiple choices) and (iii) creation of the scheduling module of an autonomic manager, aiming to carry out the scheduling of requests (problem of generalized assignment). The results of the first case study show that it is possible to use OR and CSPE to define a base architecture for the DAS in question, as well as reduce the size of the search space when SDA is running. The second, proves that it is possible to guarantee the QoS of the DAS during its execution, using the formalization provided by the OR and its respective solution. The third, proves that it is possible to use the PO to formalize the self-management problem, as well as the ADSC to evaluate different algorithms or architecture models for the ADS.

Page generated in 0.0782 seconds