• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 14
  • 1
  • 1
  • Tagged with
  • 203
  • 203
  • 97
  • 54
  • 35
  • 34
  • 31
  • 31
  • 31
  • 30
  • 28
  • 28
  • 27
  • 26
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Uma arquitetura de software para replicação baseada em consenso / A software architecture for consensus based replication

Vieira, Gustavo Maciel Dias 17 August 2018 (has links)
Orientador: Luiz Eduardo Buzato / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-17T02:18:31Z (GMT). No. of bitstreams: 1 Vieira_GustavoMacielDias_D.pdf: 1911190 bytes, checksum: fa6fc7e0d376225fabc7bb406c4d5aa1 (MD5) Previous issue date: 2010 / Resumo: Esta tese explora uma das ferramentas fundamentais para construção de sistemas distribuídos: a replicação de componentes de software. Especificamente, procuramos resolver o problema de como simplificar a construção de aplicações replicadas que combinem alto grau de disponibilidade e desempenho. Como ferramenta principal para alcançar o objetivo deste trabalho de pesquisa desenvolvemos Treplica, uma biblioteca de replicação voltada para construção de aplicações distribuídas, porém com semântica de aplicações centralizadas. Treplica apresenta ao programador uma interface simples baseada em uma especificação orientada a objetos de replicação ativa. A conclusão que defendemos nesta tese é que é possível desenvolver um suporte modular e de uso simples para replicação que exibe alto desempenho, baixa latência e que permite recuperação eficiente em caso de falhas. Acreditamos que a arquitetura de software proposta tem aplicabilidade em qualquer sistema distribuído, mas é de especial interesse para sistemas que não são distribuídos pela ausência de uma forma simples, eficiente e confiável de replicá-los / Abstract: This thesis explores one of the fundamental tools for the construction of distributed systems: the replication of software components. Specifically, we attempted to solve the problem of simplifying the construction of high-performance and high-availability replicated applications. We have developed Treplica, a replication library, as the main tool to reach this research objective. Treplica allows the construction of distributed applications that behave as centralized applications, presenting the programmer a simple interface based on an object-oriented specification for active replication. The conclusion we reach in this thesis is that it is possible to create a modular and simple to use support for replication, providing high performance, low latency and fast recovery in the presence of failures. We believe our proposed software architecture is applicable to any distributed system, but it is particularly interesting to systems that remain centralized due to the lack of a simple, efficient and reliable replication mechanism / Doutorado / Sistemas de Computação / Doutor em Ciência da Computação
142

Execução de serviços baseada em regras de negocio

Kamada, Aqueo, 1954- 12 December 2006 (has links)
Orientador: Manuel de Jesus Mendes / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-08T10:49:25Z (GMT). No. of bitstreams: 1 Kamada_Aqueo_D.pdf: 3886405 bytes, checksum: 8e4f2791cf72214eac7fe3d18c8bc794 (MD5) Previous issue date: 2006 / Resumo: No atual mundo globalizado, com interações fortemente baseadas na Web, as relações entre pessoas, empresas e aos orgãos de governo estão sujeitas a mudanças cada vez mais rápidas. Esse cenário torna ainda mais crítico o já antigo problema de manutenção de sistemas, uma vez que as atualizações precisam ser realizadas para contemplar novos modelos de negócio, no contexto destas mudanças rápidas. Esta situação justifica a necessidade de uma abordagem que consiga capturar as mudanças nos negóios e rapidamente implementá-las nos sistemas computacionais. Considera-se que existem porções da lógica de negócio que são bastante voláteis e suscetíveis às mudanças e outras porções que são bastante estáveis e muito pouco suscetíveis às mudanças. Neste contexto, propõe-se um modelo para desenvolvimento rápido e execussão de serviços, baseado em regras de negócio. Neste modelo as porções voláteis são externalizadas como regras de negócio e as porções estáveis como serviços. A prova de conceito desta abordagem traduz regras modeladas em linguagem natural para regras no modelo da máquina de regras instanciada, que invoca os serviços / Abstract: In the current globalized world, characterized by strong Web based interactions, relationships between people, companies and government organizations are subject to changes that occur faster and faster. This scenario makes the old problem of system maintenance even more critical, as the updating of these systems needs to contemplate new business models in the context of these fast changes. This situation justifies the need for an approach that can capture business changes and quickly implement them into computational systems. It is considered that some business logic portions are quite volatile and susceptible to the changes and other portions are quite stable and less susceptible to the changes. In this context, a model for fast development and execution of services based on business rules is proposed. In this model the volatile portions are externalized as business rules and the stable portions as services. The proof of concept of this approach translates rules which are modeled in a natural language to rules in the model of the instantiated rule engine that invokes the services / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
143

Processamento de consultas baseado em ontologias para sistemas de biodiversidade / Ontology based query processing for biodiversity systems

Vilar, Bruno Siqueira Campos Mendonça, 1982- 15 August 2018 (has links)
Orientador: Claudia Maria Bauzer Medeiros / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-15T00:34:29Z (GMT). No. of bitstreams: 1 Vilar_BrunoSiqueiraCamposMendonca_M.pdf: 1763680 bytes, checksum: 5a3ddb611bfab6ec3f16246598a66a5b (MD5) Previous issue date: 2009 / Resumo: Sistemas de informação de biodiversidade lidam com um conjunto heterogêneo de informações providas por diferentes grupos de pesquisa. A diversificação pode ocorrer com relação 'as espécies estudadas, 'a estruturação das informações coletadas, ao local de estudo, metodologias de trabalho ou objetivos dos pesquisadores, dentre outros fatores. Esta heterogeneidade de dados, usuários e procedimentos dificulta o reuso e o compartilhamento de informações. Este trabalho contribui para diminuir tal obstáculo, melhorando o processo de consulta 'as informações em sistemas de biodiversidade. Para tanto, propõe um mecanismo de expansão de consultas que pré-processa uma consulta de usuário (cientista) agregando informações adicionais, provenientes de ontologias, para aproximar o resultado da intenção do usuário. Este mecanismo é baseado em serviços Web e foi implementado e testado usados dados e casos de uso reais. / Abstract: Biodiversity information systems need and manage heterogeneous information provided by different research groups. Heterogeneity occur with respect to the species studied, the structure of the information gathered, the region of study, the work methodologies, or the vocabularies and objectives of the researchers, among other factors. This heterogeneity of data, users and procedures hampers information sharing and reuse. This work contributes to reduce this obstacle, improving the query processing mechanisms in biodiversity systems. Its main interpretation is a query expansion mechanism that pre-processes a user (scientist) query aggregating additional information from ontologies, thereby approximating query results to what is intended by the user. This mechanism is based on Web services and was implemented and tested using real case studies. / Mestrado / Banco de Dados / Mestre em Ciência da Computação
144

UM INTERCEPTADOR BASEADO EM AOP PARA TRATAR INTERESSES TRANSVERSAIS EM SERVIÇOS WEB / AN INTERCEPTOR BASED ON AOP TO TREAT TRANSVERSAL INTERESTS IN SERVICES WEB

França, Rômulo Martins 19 March 2008 (has links)
Made available in DSpace on 2016-08-17T14:52:43Z (GMT). No. of bitstreams: 1 Romulo Martins Franca.pdf: 1732633 bytes, checksum: 8a571456863657a6d21fa5f8ca139e9d (MD5) Previous issue date: 2008-03-19 / FUNDAÇÃO DE AMPARO À PESQUISA E AO DESENVOLVIMENTO CIENTIFICO E TECNOLÓGICO DO MARANHÃO / This research currently presents the description of a project in development in the laboratory of intelligent systems (LSI), of the Federal University of the Maranhão (UFMA). The current Middlewares ESB such as the BEA Web Logic, BizTalk, Mule ESB and similars, does not possess a semantics for the treatment of the crosscutting concerns neither before, during and after a group of operations being executed. Many important concerns are spread by some modules, services and if they mix other properties of system in an inner way, making it difficult the reuse and maintenance of its components. This work presents a boarding called InterceptadorAOP, for the treatment of crosscutting concerns in Web Services in the middlewares ESB. The InterceptadoresAop is responsible elements for the treatment of the crosscutting concerns as log of data, treatment of exceptions, debug and daily paydefined measurer of time already. They are based on the semantics of the AspectJ language, deriving of the Aspectoriented Programming that it aims at to supply one better separation of the functional interests of the nonfunctional of an application, promoting services more easy to be kept, legible and modularized. Already the Architectureoriented Services stimulates and offers mechanisms for the composition of distributed applications of flexible form and with reduced cost. The research describes the state of the art, details technician of the InterceptadoresAOP and its application in two scenes for the model validation. / Esta dissertação apresenta a descrição de um projeto atualmente em desenvolvimento no laboratório de sistemas inteligentes (LSI), da Universidade Federal do Maranhão (UFMA). Os middlewares ESB (Enterprise Services Bus ) atuais como o BEA Web Logic, BizTalk, Mule ESB e similares, não possuem uma semântica para o tratamento dos interesses transversais antes, durante e depois de um grupo de operações serem executadas. Muitos interesses importantes estão espalhados por vários módulos, serviços e se misturam com outras propriedades de sistema de maneira intrusiva, dificultando a reutilização e manutenção de seus componentes. Este trabalho apresenta uma abordagem chamada de InterceptadorAOP, para o tratamento de interesses transversais em Serviços Web em middlewares ESB. Os InterceptadoresAop são elementos responsáveis pelo tratamento dos interesses transversais como o log de dados, tratamento de exceções, debug e medidor de tempo já prédefinidos. São baseados na semântica da linguagem AspectJ, oriunda da Programação Orientada a Aspectos que visa fornecer uma melhor separação dos interesses funcionais dos nãofuncionais de uma aplicação, promovendo serviços mais fáceis de serem mantidos, legíveis e modularizados. Já a Arquitetura Orientada a Serviço (SOA) estimula e oferece mecanismos para a composição de aplicações distribuídas de forma flexível e com custo reduzido. O trabalho descreve o estado da arte, detalhes técnicos dos InterceptadoresAOP e a sua aplicação em dois cenários para a validação do modelo.
145

SciProvMiner: captura e consulta de proveniência utilizando recursos Web semânticos para ampliação do conhecimento gerado e otimização do processo de coleta

Alves, Tatiane Ornelas Matins 06 September 2013 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-05-31T14:07:30Z No. of bitstreams: 1 tatianeornelasmartinsalves.pdf: 7124590 bytes, checksum: c53abf20bb1470077226587298efa22d (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-01T11:36:48Z (GMT) No. of bitstreams: 1 tatianeornelasmartinsalves.pdf: 7124590 bytes, checksum: c53abf20bb1470077226587298efa22d (MD5) / Made available in DSpace on 2017-06-01T11:36:48Z (GMT). No. of bitstreams: 1 tatianeornelasmartinsalves.pdf: 7124590 bytes, checksum: c53abf20bb1470077226587298efa22d (MD5) Previous issue date: 2013-09-06 / Prover informação histórica de experimentos científicos com o objetivo de tratar o problema de perda de conhecimento do cientista sobre o experimento tem sido o foco de diversas pesquisas. No entanto, o apoio computacional ao experimento científico em larga escala encontra-se ainda incipiente e é considerado um grande desafio. Este trabalho tem o intuito de colaborar para as pesquisas nessa área, apresentando a arquitetura SciProvMiner, cujo principal objetivo é coletar proveniência prospectiva e retrospectiva de experimentos científicos fazendo uso de recursos Web semânticos para otimizar o processo de captura das informações de proveniência e aumentar o conhecimento do cientista sobre o experimento realizado. Como contribuições específicas do SciProvMiner, podemos destacar: - Desenvolvimento de um modelo para contemplar a proveniência prospectiva e retrospectiva como uma extensão do Open Provenance Model (OPM), que em sua forma original modela somente proveniência retrospectiva. - Especificação e implementação de um coletor de proveniência que utiliza a tecnologia de serviços Web para capturar ambos os tipos de proveniência segundo o modelo acima; - Desenvolvimento de uma ontologia denominada OPMO-e, que estende a ontologia Open Provenance Model Ontology (OPMO) de forma a modelar o conhecimento acerca da proveniência prospectiva além da retrospectiva já contemplada na OPMO e onde são implementadas as regras de completude e inferência definidas na documentação do modelo OPM. Estas regras aumentam o conhecimento do cientista sobre o experimento realizado por inferir informações que não foram explicitamente fornecidas pelo usuário e tornando possível a otimização do processo de captura de proveniência e a consequente diminuição do trabalho do cientista para instrumentalizar o workflow; - Especificação de um banco de dados relacional onde são armazenadas as informações de proveniência capturadas pelo coletor, que pode ser utilizado para ser consultado a respeito da proveniência explicitamente capturada, além de fornecer dadosparaas demais funcionalidades do SciProvMiner. / To provide historical scientific information to deal with knowledge loss about scientific experiment has been the focus of several researches. However, the computational support for scientific experiment on a large scale is still incipient and is considered one of the challenges set by the Brazilian Computer Society for 2006 to 2016 period. This work aims to contribute in this area, presenting the SciProvMiner architecture, which main objective is to collect prospective and retrospective provenance of scientific experiments, using ontologies and inference engines to provide useful information in order to increase the knowledge of scientists about a given experiment. We can highlight as specific contributions of SciProvMiner: - Development of a model that encompass prospective and retrospective provenance as an extension of the Open Provenance Model (OPM), which originally onlydeals with retrospective provenance. - Specification and implementation of a provenance collector that uses Web services technology to capture both types of provenance (prospective and retrospective) according to the above model; - Development of an ontology,named Extended OPMO-e, that extends the Open Provenance Model Ontology (OPMO) in order to model prospective provenance beyond the retrospective provenance already covered in OPMO and where are implemented inference and completeness rules defined in OPM documentation. These rules increase the knowledge of scientists on the experiment inferring information that were not explicitly provided by the user and making it possible to optimize the provenance capture mechanism and the consequent decrease on scientist work in order to instrument the workflow. - A relational database specification, where captured provenance information are stored. These information can be used to formulate queries about the provenance explicitly captured, besides provide data to other functionalities of SciProvMiner.
146

Um sistema de recomendação para páginas web sobre a cultura da cana-de-açúcar / A recommender system for web pages regarding sugarcane crop

Barros, Flavio Margarito Martins de 23 August 2018 (has links)
Orientador: Stanley Robson de Medeiros Oliveira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Agrícola / Made available in DSpace on 2018-08-23T12:56:12Z (GMT). No. of bitstreams: 1 Barros_FlavioMargaritoMartinsde_M.pdf: 2098709 bytes, checksum: 4fad46ce03410953cd3fbac10f9a43bd (MD5) Previous issue date: 2013 / Resumo: Sistemas de informação web oferecem informações em quantidade elevada, tal que a tarefa de encontrar a informação de interesse torna-se desafiadora. A Agencia de Informação Embrapa e um sistema web com o objetivo de organizar, tratar, armazenar e divulgar informações técnicas e conhecimentos gerados pela EMBRAPA (Empresa Brasileira de Pesquisa Agropecuária). O portal esta estruturado como uma arvore hierárquica, denominada Arvore de Conhecimento, a qual compreende centenas de paginas web, artigos, planilhas e materiais multimídia. Diariamente o site recebe milhares de acessos tal que os registros dessas visitas são armazenados em um banco de dados. Em domínios onde estão disponíveis informações em quantidade elevada, armazenadas em bancos de dados, as ferramentas de Mineração de Dados são promissoras, pois apresentam recursos para analise e extração de padrões de uso do site para fazer recomendações. Recomendações personalizadas de conteúdo melhoram a usabilidade de sistemas, agregam valor aos serviços, poupam tempo e fidelizam usuários. O objetivo desse trabalho foi projetar, desenvolver e implantar um sistema de recomendação web, baseado em regras de associação, que ofereça recomendações automaticamente de conteúdos da cultura da cana-de-açúcar, de acordo com o perfil da comunidade de usuários. Os dados utilizados nessa pesquisa foram extraídos de um banco de dados de acessos do projeto Agencia de Informação Embrapa. A metodologia utilizada na pesquisa compreendeu a preparação dos dados de visitas ao site para uma estrutura de "lista de acessos", onde estão registradas todas as paginas visitadas por cada usuário. A partir destas listas de acesso, regras de associação entre paginas foram geradas por meio do algoritmo Apriori. O conjunto de regras deu origem a uma base de conhecimento que foi armazenada em um banco de dados para fazer recomendações de conteúdo aos usuários. Como suporte a base de conhecimento, para cada pagina da agencia cana-de-açúcar foi criada uma lista de ate três das paginas mais visitadas. Essas paginas podem ser oferecidas caso haja ausência de recomendações. O sistema de recomendação foi avaliado com uma métrica denominada taxa de rejeição e, por meio de um questionário aplicado a um conjunto de usuários, foi avaliada a usabilidade da Agencia cana-de-açúcar, apos a implantação do sistema. A base de conhecimento, gerada na forma de regras de recomendação, também foi avaliada em relação a estrutura de links da Agencia, para verificar se a lista de recomendações trouxe conhecimentos sobre a estrutura do portal. De acordo com os resultados da pesquisa, por meio das recomendações, usuários encontram informações relevantes associadas as suas visitas, aumentam seu tempo de permanência no site e aumentam o uso e visualização dos conteúdos da Agencia de Informação Embrapa - Arvore cana-de-açúcar. Em paginas com dezenas de links, a base de conhecimento também atua como uma forma de resumo, apontando os principais links nas paginas / Abstract: Web information systems provide a great amount of information, so that the task of retrieving the information of interest becomes a challenge. Embrapa Information Agency is a web system aimed to organize, treat, store and disseminate technical information and knowledge generated by EMBRAPA (Brazilian Agricultural Research Corporation). The Agency's portal is structured as a hierarchical tree, called Knowledge Tree, which comprises hundreds of web pages, articles, spreadsheets and multimedia materials. Everyday this site receives thousands of access and the records of these visits are stored in a database. In domains where information is available in high quantity, stored in databases, Data Mining tools are promising, since they have resources for extraction and analysis of usage patterns of the site to make recommendations. Personalized recommendations of content improve the usability of systems, add value to services, save time and retain users. The aim of this work was to design, develop and deploy a web recommendation system based on association rules, which offers automatically recommendations of sugarcane contents, according to the profile of user community. The data used in this study were extracted from a database of accesses from Embrapa Information Agency. The methodology used in the research included a data preparation procedure to transform website visits into a structured access list, in which all page views by each user are stored. From these access lists, association rules between pages were generated by means of the Apriori algorithm. The set of rules has created a knowledge base that was stored in a database to make content recommendations to users. To support the knowledge base, for each page of the sugarcane Agency was created a list of up to three of the most visited pages. These pages can be offered if there are no recommendations. The recommender system was evaluated by using a metric called bounce rate. In addition, through a questionnaire applied to a set of users, the usability of the sugarcane Agency was evaluated, after the system deployment. The knowledge base generated in the form of recommendation rules was also evaluated in relation to link structure of Agency, to verify if the list of recommendations brought knowledge about the structure of the portal. According to the survey results, users find relevant information associated with their visits, increase their time spent on the site and increase the use and the interest of the contents of sugarcane Agency. In pages with dozens of links, the knowledge base also acts as a form of summarizing them, indicating the main links on the pages / Mestrado / Planejamento e Desenvolvimento Rural Sustentável / Mestre em Engenharia Agrícola
147

Políticas de privacidade semânticas para descrição e descoberta de serviços na arquitetura orientada a serviços / Semantic privacy policies for service description and discovery in service-oriented architecture

Garcia, Diego Zuquim Guimarães, 1982- 08 October 2011 (has links)
Orientadores: Maria Beatriz Felgar de Toledo, Miriam Akemi Manabe Capretz / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-18T23:55:18Z (GMT). No. of bitstreams: 1 Garcia_DiegoZuquimGuimaraes_D.pdf: 948717 bytes, checksum: 8f672e7f086058d406d920d0a0f663d7 (MD5) Previous issue date: 2011 / Resumo: A privacidade pode ser definida como o direito de um indivíduo de ter informações sobre ele acessadas e usadas em conformidade com aquilo que ele considera aceitável. A preservação da privacidade é um problema em aberto na Arquitetura Orientada a Serviços (AOS). Uma solução para esse problema deve incluir características que apoiem a preservação da privacidade em cada área da AOS. Esta tese foca as áreas da descrição e descoberta de serviços. Os problemas nessas áreas são que não é possível descrever como um provedor de serviços usa as informações recebidas de um consumidor de serviços e descobrir serviços que satisfaçam as preferências de um consumidor. Diversos trabalhos de pesquisa têm sido realizados nessas áreas, mas ainda não existe um framework que ofereça uma solução que apoie uma rica descrição das políticas de privacidade e a sua integração no processo de descoberta de serviços. Consequentemente, o principal objetivo desta tese é propor um framework de preservação de privacidade para as áreas de descrição e descoberta de serviços na AOS. O framework aprimora a descrição e descoberta de serviços com a especificação e interseção das políticas de privacidade usando uma ontologia base de privacidade e ontologias de privacidade de domínios específicos. Além disso, o framework melhora essas áreas com uma extensão da AOS tradicional, a qual inclui dois novos papéis responsáveis por implementar um repositório de políticas de privacidade e intermediar as interações entre os consumidores e provedores e o componente de preservação de privacidade. A infra-estrutura proposta pelo framework foi implementada e avaliada através de um cenário no domínio da saúde, uma vez que a preservação da privacidade é uma questão importante nesse domínio / Abstract: Privacy can be defined as the right of an individual to have information about them accessed and used in conformity with what they consider acceptable. Privacy preservation in Service-Oriented Architecture (SOA) is an open problem. A solution for this problem must include features that support privacy preservation in each area of SOA. This thesis focuses on the areas of service description and discovery. The problems in these areas are that currently it is not possible to describe how a service provider deals with information received from a service consumer as well as discover a service that satisfies the privacy preferences of a consumer. Research has been carried out in these areas, but there is currently no framework which offers a solution that supports a rich description of privacy policies and their integration in the process of service discovery. Thus, the main goal of this thesis is to propose a privacy preservation framework for the areas of service description and discovery in SOA. The framework enhances service description and discovery with the specification and intersection of privacy policies using a base and domain-specific privacy ontologies. Moreover, the framework enhances these areas with an extension to basic SOA that includes roles responsible for implementing a privacy registry as well as mediating the interactions between service consumers and providers and the privacy preservation component. The framework is evaluated through a health care scenario as privacy preservation is an important issue in this domain / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
148

Testes de robustez em web services por meio de injeção de falhas / Robustness testing of web services by means of fault injection

Valenti, André Willik, 1986- 19 August 2018 (has links)
Orientador: Eliane Martins / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-19T17:16:29Z (GMT). No. of bitstreams: 1 Valenti_AndreWillik_M.pdf: 2649436 bytes, checksum: c4cfe20cd30b324ee3a2d8058d470b7e (MD5) Previous issue date: 2011 / Resumo: A crescente adoção de Arquiteturas Orientadas a Serviços e de Web Services pela indústria e pela academia vem criando novos desafios para a garantia de qualidade dos sistemas. Testes de robustez possibilitam verificar o funcionamento de um sistema quando sujeito a condições adversas de operação, como entradas inesperadas ou alta carga de requisições sobre os serviços. A técnica de injeção de falhas pode ser aplicada para induzir tais situações e permitir uma avaliação do sistema nessas condições. No entanto, encontram-se poucas ferramentas adequadas para essa atividade. Nesta dissertação, apresentamos a WSInject, uma ferramenta para injeção de falhas em Web Services, além de um estudo sobre testes de robustez em sistemas baseados nessa tecnologia. A ferramenta possui as vantagens de ser flexível, configurável, extensível e minimamente intrusiva. Este trabalho é parte do projeto RobustWeb da CAPES/Cofecub, registrado sob o número 623/09 / Abstract: The increasing adoption of Service-Oriented Architectures and Web Services, both by industry and academia, has been posing new challenges for quality assurance. Robustness testing allows one to verify the behavior of a system when subject to adverse operating conditions, such as unexpected inputs or high service loads. The fault injection technique may be used to induce such scenarios in order to evaluate system behavior under these conditions. However, few tools are currently available to support this activity. In this work, we present WSInject - a fault injection tool for Web Services - and a study on Web Services robustness testing. WSInject's advantages include being flexible, customizable, extensible and minimally intrusive. This work is registered under number 623/09 as part of RobustWeb project from CAPES/Cofecub / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
149

Avaliação de um sistema de gerencia de banco de dados em memoria principal para uso em aplicações WEB / Evaluation of a main-memory database for use on web applications

Supriano, Anderson 31 July 2006 (has links)
Orientador: Luiz Eduardo Buzato / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-07T21:51:35Z (GMT). No. of bitstreams: 1 Supriano_Anderson_M.pdf: 835080 bytes, checksum: b62645ab9d314ade2a5badaad1879518 (MD5) Previous issue date: 2006 / Resumo: Aplicações web são cada vez mais comuns em nosso cotidiano e com isto torna-se necessária a busca por soluções para a melhora do desempenho no acesso a essas aplicações. Várias técnicas existem para esta melhora de desempenho, entre elas a replicação de aplicações e bancos de dados e o uso de bancos de dados em memória principal. Em busca da melhora de desempenho pensa-se em juntar um banco de dados de memória principal com as técnicas de replicação. Para isto, é necessário escolher um banco de dados de memória principal que seja estável e já tenha bom desempenho, para que a camada de replicação possa ser implementada utilizando-o como base. Este trabalho tem o objetivo de analisar o desempenho de um banco de dados de memória principal e compará-lo com o desempenho de dois bancos de dados tradicionais. Os bancos de dados escolhidos foram: Monet, de memória principal, e MySQL e PostgreSQL, tradicionais. Para que uma medida de desempenho seja feita de modo que seja válida para o uso em aplicações web, o benchmark escolhido foi o TPC-W, que especifica a implementação de uma loja de livros e browsers emulados para acessar essa loja, de modo que é possível fazer uma análise de desempenho. Este trabalho irá mostrar um estudo sobre as teorias envolvidas e os resultados dos testes aplicados, em que o Monet não mostra ter um desempenho superior em todos os casos e nem está maduro o suficiente para ser usado na prática em replicação de aplicações web. Portanto, outras soluções baseadas em sistemas de gerência de persistência alternativos devem ser consideradas / Abstract: Web applications are very common applications nowadays and it is necessary to find solutions for performance improvements for these applications. There are several ways to implement these performance improvements, including applications and databases replication and usage of main-memory databases. Looking for performance improvements we can think about using main-memory databases together with replication algorithms. In order to implement this, it is necessary to choose a main-memory database that are stable and with good performance to be used to implement a replication layer on it. The objective of this work is analyzing a main-memory database performance and compares it with the performance of two traditional databases. The database systems chosen were: Monet, as a main-memory database, and MySQL and PostgreSQL, as traditional databases. In order to have a benchmark that is valid for web applications usage we chose the TPC-W benchmark, which specifies a book store implementation and emulated browsers to access this shop, which allows an analysis on database performance. This work will show a study about theories involved and the results of executed tests, where Monet¿s performance does not seem to be better performance in most cases and Monet seems not be stable enough to be used on a real system for replication of web applications. Therefore, other solutions based on alternative persistence management systems should be considered. / Mestrado / Engenharia de Computação / Mestre em Ciência da Computação
150

Tratamento de eventos aplicado à composição de serviços web / Processing of events for web services composition

Mauricio Chui Rodrigues 29 May 2012 (has links)
Funcionalidades de software expostas como serviços Web são cada vez mais comuns e suas formas de composição e coordenação são cada vez mais imprescindíveis. Orquestração e coreografia, tradicionais abordagens de composição de serviços Web, são providas por ferramentas voltadas ao gerenciamento de processos de negócio com diferentes enfoques. Apesar do sucesso dessas abordagens, existem ainda desafios a serem superados, tais como a dificuldade de manutenção em fluxos de controle já existentes, o custo de comunicação associado às interações com os serviços Web, o conhecimento do processo de negócio por parte dos serviços e ainda a compatibilidade dos mesmos em uma composição. Como alternativa às abordagens tradicionais, esta dissertação propõe o uso da abordagem WED-flow para composição de serviços Web, de modo que a execução de processos de negócio seja orientada pelas alterações do estado dos dados. Na abordagem proposta, o fluxo de controle não é um requisito, mas sim uma consequência da execução dos serviços Web, o que proporciona maior flexibilidade para o desenvolvimento e a manutenção das aplicações. Mais concretamente, a primeira contribuição deste trabalho é a proposição e a avaliação de cenários possíveis de orquestração e coreografia de acordo com critérios pré-definidos. A segunda contribuição é a implementação da abordagem WED-flow para a composição de serviços Web, bem como sua validação prática e sua avaliação em relação aos cenários de coreografia e orquestração. / Features of software exposed as Web services are becoming more common and their forms of composition and coordination are increasingly essential. Orchestration and choreography, traditional approaches for Web service compositions, are provided by tools that manage business processes with different approaches. Despite the success of these approaches, there are still challenges to be overcome such as the difficulty of maintaining flows in existing control, the communication cost associated with Web service interactions, knowledge of the business process by the services and even their compatibility in service compositions. As an alternative to traditional approaches, this paper proposes the use of WED-flow approach for Web services composition, so that the execution of business processes is driven by changes in data states. In our approach, the control flow is not a requirement but a consequence of the Web service execution, which provides greater flexibility for the development and maintenance of applications. More specifically, the first contribution of this work is to propose and evaluate possible scenarios of orchestration and choreography according to predefined criteria. The second contribution of this work is the implementation of WED-flow approach for Web service compositions, as well as its validation in the choreography and orchestration scenarios.

Page generated in 0.0312 seconds