• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 56
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 59
  • 59
  • 30
  • 15
  • 14
  • 13
  • 12
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Context driven workflow adaptation applied to healthcare planning = Adaptação de workflows dirigida por contexto aplicada ao planejamento de saúde / Adaptação de workflows dirigida por contexto aplicada ao planejamento de saúde

Vilar, Bruno Siqueira Campos Mendonça, 1982- 25 August 2018 (has links)
Orientadores: Claudia Maria Bauzer Medeiros, André Santanchè / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-25T03:19:51Z (GMT). No. of bitstreams: 1 Vilar_BrunoSiqueiraCamposMendonca_D.pdf: 3275725 bytes, checksum: 4ccdd82eebca5b8da9748c7c515ea4c1 (MD5) Previous issue date: 2014 / Resumo: Sistemas de Gerenciamento de Workflows (WfMS -- em inglês) são usados para gerenciar a execução de processos, melhorando eficiência e eficácia de procedimentos em uso. As forças motrizes por trás da adoção e do desenvolvimento de um WfMS são aplicações científicas e de negócios. Esforços conjuntos de ambos resultaram em mecanismos consolidados, além de padrões e protocolos consensuais. Em particular, um WfMS científico (SWfMS -- \textit{Scientific WfMS}) auxilia cientistas a especificar e executar experimentos distribuídos. Ele fornece diferentes recursos que suportam atividades em um ambiente experimental, como prover flexibilidade para mudar o projeto de workflow, manter a proveniência e suportar reproducibilidade de experimentos. Por outro lado, apesar de poucas iniciativas de pesquisa, WfMSs não fornecem suporte apropriado à personalização dinâmica e baseada em contexto durante a execução; adaptações em tempo de execução normalmente requerem intervenção do usuário. Esta tese se concentra em superar essa deficiência, fornecendo a WfMSs um mecanismo de ciente do contexto para personalizar a execução de workflows. Como resultado, foi projetado e desenvolvido o DynFlow -- uma arquitetura de software que permite tal personalização aplicada a um domínio: planejamento de saúde. Este domínio foi escolhido por ser um ótimo exemplo de personalização sensível ao contexto. Procedimentos de saúde constantemente sofrem mudanças que podem ocorrer durante um tratamento, como a reação de um paciente a um medicamento. Para suprir a demanda, a pesquisa em planejamento de saúde desenvolveu técnicas semi-automáticas para suportar mudanças rápidas dos passos de fluxos de tratamento, de acordo com o estado e a evolução do paciente. Uma dessas técnicas é \textit{Computer-Interpretable Guidelines} (CIG), cujo membro mais proeminente é \textit{Task-Network Model} (TNM) -- uma abordagem baseada em regras capaz de construir um plano em tempo de execução. Nossa pesquisa nos levou a concluir que CIGs não suportam características necessárias por profissionais de saúde, como proveniência e extensibilidade, disponíveis em WfMSs. Em outras palavras, CIGs e WfMSs têm características complementares e são direcionadas à execução de atividades. Considerando os fatos citados, as principais contribuições desta tese são: (a) especificação e desenvolvimento do DynFlow, cujo modelo associa características de TNMs e WfMS; (b) caracterização das principais vantagens e desvantagens de modelos CIGs e WfMSs; (c) implementação de um protótipo, baseado em ontologias e aplicadas ao domínio da saúde e enfermagem / Abstract: Workflow Management Systems (WfMS) are used to manage the execution of processes, improving efficiency and efficacy of the procedure in use. The driving forces behind the adoption and development of WfMSs are business and scientific applications. Associated research efforts resulted in consolidated mechanisms, consensual protocols and standards. In particular, a scientific WfMS helps scientists to specify and run distributed experiments. It provides several features that support activities within an experimental environment, such as providing flexibility to change workflow design and keeping provenance (and thus reproducibility) of experiments. On the other hand, barring a few research initiatives, WfMSs do not provide appropriate support to dynamic, context-based customization during run-time; on-the-fly adaptations usually require user intervention. This thesis is concerned with mending this gap, providing WfMSs with a context-aware mechanism to dynamically customize workflow execution. As a result, we designed and developed DynFlow ¿ a software architecture that allows such a customization, applied to a specific domain: healthcare planning. This application domain was chosen because it is a very good example of context-sensitive customization. Indeed, healthcare procedures constantly undergo unexpected changes that may occur during a treatment, such as a patient¿s reaction to a medicine. To meet dynamic customization demands, healthcare planning research has developed semi-automated techniques to support fast changes of the careflow steps according to a patient¿s state and evolution. One such technique is Computer-Interpretable Guidelines (CIG), whose most prominent member is the Task-Network Model (TNM) -- a rule based approach able to build on the fly a plan according to the context. Our research led us to conclude that CIGs do not support features required by health professionals, such as distributed execution, provenance and extensibility, which are available from WfMSs. In other words, CIGs and WfMSs have complementary characteristics, and both are directed towards execution of activities. Given the above facts, the main contributions of the thesis are the following: (a) the design and development of DynFlow, whose underlying model blends TNM characteristics with WfMS; (b) the characterization of the main advantages and disadvantages of CIG models and workflow models; and (c) the implementation of a prototype, based on ontologies, applied to nursing care. Ontologies are used as a solution to enable interoperability across distinct SWfMS internal representations, as well as to support distinct healthcare vocabularies and procedures / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
22

Koala: sistema para integração de métodos de predição e análise de estruturas de proteína / Koala: system for integration of methods for protein structures prediction and analysis

Defelicibus, Alexandre 25 January 2016 (has links)
A Biologia Computacional tem desenvolvido algoritmos aplicados a problemas relevantes da Biologia. Um desses problemas é a Protein Structure Prediction (PSP). Vários métodos têm sido desenvolvidos na literatura para lidar com esse problema. Porém a reprodução de resultados e a comparação dos mesmos não têm sido uma tarefa fácil. Nesse sentido, o Critical Assessment of protein Structure Prediction (CASP), busca entre seus objetivos, realizar tais comparações. Além disso, os sistemas desenvolvidos para esse problema em geral não possuem interface amigável, não favorecendo o uso por não especialistas da computação. Buscando reduzir essas dificuldades, este trabalho propões o Koala, um sistema baseado em uma plataforma web, que integra vários métodos de predição e análises de estruturas de proteínas, possibilitando a execução de experimentos complexos com o uso de fluxos de trabalhos. Os métodos de predição disponíveis podem ser integrados para a realização de análises dos resultados, usando as métricas RMSD, GDT-TS ou TM-Score. Além disso, o método Sort by front dominance (baseado no critério de optimalidade de Pareto), proposto nesse trabalho, consegue avaliar predições sem uma estrutura de referência. Os resultados obtidos, usando proteínas alvo de artigos recentes e do CASP11, indicam que o Koala tem capacidade de realizar um conjunto relativamente grande de experimentos estruturados, beneficiando a determinação de melhores estruturas de proteínas, bem como o desenvolvimento de novas abordagens para predição e análise por meio de fluxos de trabalho. / Computational Biology has developed algorithms applied to relevant problems from Biology. One of these probems is Protein Structure Prediction (PSP). Several methods have been developed on the liteture to deal with this problem. However, the reproduction of results and the comparison of the methods have not been an easy task. Accordingly, the Critical Assessment of protein Structure Prediction (CASP), has among his objectives, perform these comparisons. Besides, the developed systems for this problem have low usability, not benefiting the investigation of various methods by non experts. In order to minimize those difficulties, this project proposes Koala, a web-based system that integrates several algorithms applied to PSP and analysis, allowing the execution of complex experiments by using workflows. The prediction methods can be integrated to perform some analysis of the results, by using the RMSD, GDT-TS and TM-Score metrics. Moreover, the Sort by front dominance method (based on the criterion of Pareto optimalidad), proposed on this work, can evaluate predictions with no reference structure. The results obtained, using target proteins from recent articles and CASP11, indicate that Koala has the capability to execute a relatively large set of organized experiments, benefiting determining of better protein structures, as well as the development of new approaches for prediction and analysis through workflows.
23

Evolução das ocupações no mercado de trabalho tocantinense e o processo de concentração das atividades produtivas entre 2001-2009

Barroso, Ana Cláudia 24 March 2011 (has links)
O entendimento da dinâmica do emprego é uma questão importante para a elaboração de políticas econômicas. Ao longo das décadas de 1990 e 2000 o Brasil e, mais precisamente, o Tocantins, passaram por grandes transformações. No cenário nacional, o Brasil experimentou um grande processo de liberalização comercial na década de 1990. Durante o período, o emprego diminuiu significativamente. Enquanto isso, o estado do Tocantins passava por um momento peculiar: o início de sua trajetória, marcada pela criação da capital, Palmas, que atraiu milhares de migrantes de diferentes estados. Tais fatores fazem com que o mercado de trabalho fique em permanente movimento. Daí surge a necessidade de traçar um mapa do mercado de trabalho, a fim de facilitar a compreensão da dinâmica do emprego no estado. Para mensurar e qualificar o grau de mobilidade do mercado de trabalho, estatísticas de fluxo como realocação de emprego são calculadas. A análise do grau de concentração de estabelecimento ou vínculos empregatícios de um determinado setor é elaborada a partir do cálculo dos Índices de Gini locacionais. Este trabalho tem como objetivo analisar a evolução das ocupações no mercado de trabalho formal tocantinense e o processo de concentração das atividades produtivas entre 2001-2009, através de uma abordagem de fluxo de trabalho. Os dados utilizados para a análise do mercado de trabalho formal no Tocantins foram retirados de dados disponíveis no Ministério do Trabalho e do Emprego (MTE), através da Relação Anual de Informações Sociais (RAIS). Os resultados mostram que a realocação do emprego no Tocantins não é elevada, mas heterogênea. Setores como comércio e serviços não apresentam realocação de emprego em excesso, isto é, não houve rotatividade de emprego nestes dois setores. O setor extrativista mineral é o maior encarregado pela realocação de trabalhadores e rotatividade de emprego no estado. Por fim, tem-se que há concentração das atividades produtivas entre 2001 e 2009 no Tocantins em quase todos os setores e essa concentração ocorre no entorno da BR 153, onde estão os municípios de maior importância do estado. / Understanding the dynamics of employment is an important matter in economic policy-making. Through the decades 1990 and 2000, Brazil and, more precisely, Tocantins, have undergone major transformations. On the national scene Brazil experienced a substantial process of trade liberalization in the 1990s. During the period, employment decreased significantly. Meanwhile, the state of Tocantins was going through a peculiar time: the beginning of its path, marked by the creation of the capital, Palmas, which attracted thousands of migrants from different states. These factors make the labor market stand in constant moving. Hence the need to draw a map of the labor market in order to facilitate the understanding of the dynamics of the state. To measure and qualify the degree of mobility of the labor market, flow statistics such as reallocation of employment are calculated. The analysis of the concentration's degree of establishment or employment ties to a particular sector is drawn from the calculation of locational Gini Coefficients. This paper has as objective to analyze the evolution of occupations in the formal labor market of Tocantins and the concentration's process of production activities between years 2001 and 2009 through an approach workflow. The data used for analysis of the formal labor market in Tocantins were taken from data from the Ministério do Trabalho e do Emprego (MTE), through Relação Anual de Informações Sociais (RAIS). The results indicate that the reallocation of employment in Tocantins is not high, but heterogeneous. Sectors such as commerce and services do not present relocating employment in excess, ie., there was not job turnover in these two sectors. The mining sector is the highest responsible for the relocation of employees and turnover of jobs in the state. Lastly, we have that there is a concentration of productive activities, between 2001 and 2009 in Tocantins in almost all sectors and this concentration occurs around the highway, BR 153, where are the most important cities of the state.
24

Apoio à execução de experimentos controlados usando uma ontologia para empacotamento : a ferramenta OntoExpTool /

Pucci Neto, João. January 2015 (has links)
Orientador: Rogério Eduardo Garcia / Banca: Reginaldo Ré / Banca: Danilo Medeiros Eler / Resumo: A condução de experimentos controlados e suas replicações gera dados que são armazenados em um pacote de laboratório, o que contribui para a criação de um corpo de conhecimento sobre Engenharia de Software. A replicação de um estudo depende do pacote de laboratório, em especial, replicações inter grupos. A transferência do conhecimento armazenado nos pacotes de laboratório é dificultada pela falta de padrão na organização das informações e dificuldades na compreensão. O uso de ontologia na instanciação de pacotes de laboratórios pode facilitar a transferência de conhecimento entre grupos de pesquisa de Engenharia de Software. Este trabalho apresenta uma ferramenta computacional que executa um workflow definido para as atividades da experimentação (Definição, Planejamento, Execução, Análises e Interpretações, e Empacotamento). Ela permite acesso diferenciado para experimentador e participante. O experimentador tem acesso a todas atividades do processo experimental, em especial, controle sobre a atividade Operação. O participante do experimento tem acesso restrito à tarefa a ele associada, bem como os artefatos necessários. O pacote de laboratório é instanciado de acordo com a E xperOntology (ontologia de domínio para experimentos controlados) gerando um arquivo OWL ou XML. Para avaliar o uso da ferramenta foi registrado e empacotado um experimento controlado / Abstract: Conducting controlled experiments and their replication generates data to be stored in a lab package, which contributes to create a body ofknowledge on Software Engineering. Replication of a study depends on the lab package, in particular inter groups replication. The transfer of knowledge stored into lab packages is hampered by the lack of standard to organize information and its understanding. The use of ontology on lab packages instantiation might facilitate transfering of knowledge among Software Engineering research groups. This work presents a computational tool to execute the workflow defined for experimentation (Definition, Planning, Operation, Analysis and Packaging activities). The lab package is instantiated according to E xperOntology (domain ontology for controlled experiments) generating OWL or XML file. The tool allows different access to experimenter and participant roles. The experimenter has access to all activities of the experimental process, particularly to control the operation activity. The experiment participant has restricted access to the tasks associated to himher, as well as the required artifacts. To evaluate the use of the tool was recorded and packaged a controlled experiment / Mestre
25

Framework para execução adaptativa e tolerante a falhas de workflows em grid

Guimarães, Felipe Pontes 14 October 2010 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2010. / Submitted by Luiza Moreira Camargo (luizaamc@gmail.com) on 2011-06-20T17:36:29Z No. of bitstreams: 1 2010_FelipePontesGuimarães.pdf: 3025286 bytes, checksum: 90ebea4efc3733e40b3ce19f7925beda (MD5) / Approved for entry into archive by Guilherme Lourenço Machado(gui.admin@gmail.com) on 2011-06-21T13:43:47Z (GMT) No. of bitstreams: 1 2010_FelipePontesGuimarães.pdf: 3025286 bytes, checksum: 90ebea4efc3733e40b3ce19f7925beda (MD5) / Made available in DSpace on 2011-06-21T13:43:47Z (GMT). No. of bitstreams: 1 2010_FelipePontesGuimarães.pdf: 3025286 bytes, checksum: 90ebea4efc3733e40b3ce19f7925beda (MD5) / A computação em Grid proporciona a seus usuários o compartilhamento de recursos autônomos e heterogêneos para solucionar problemas computacionais de grande complexidade. Em um Grid, os recursos possuem autonomia, logo podem entrar e sair do mesmo conforme suas necessidades. A computação em Grid é frequentemente usada para executar worflows científicos, que são uma rede de passos necessários à análise de grande volume de dados. Geralmente, a execução de workflows científicos é demorada, podendo levar vários minutos, várias horas ou mesmo dias. Ao se associar essas duas características - um ambiente dinâmico e workflows de longa duração - surge um problema: não há como se impedir que os recursos saiam do Grid durante a execução de tarefas de um workflow, causando assim um erro na execução. Não se pode, no entanto, permitir que tais erros inviabilizem a execução do workflow. Para contornar esse problema existem técnicas de tolerância a falhas, que procuram garantir que, mesmo em face de falhas na execução de algumas tarefas, o workflow como um todo será executado corretamente. Vários trabalhos lidam com técnicas de tolerância a falhas para workflows em Grid e várias técnicas diferentes já existem. No entanto, nenhuma das abordagens estudadas considera, em conjunto, as preferências do usuário e a situação atual do Grid. A presente dissertação de mestrado propõe e avalia um framework de execução adaptativa tolerante a falhas que permite ao usuário definir as regras pelas quais a seleção das técnicas de tolerância a falhas será realizada em tempo de execução e também permite a adição de novas técnicas de tolerância a falhas. Os resultados experimentais obtidos em um Grid com 5 máquinas mostram que o framework proposto de fato permite a definição de regras pelo usuário e a inclusão de novas técnicas de tolerância a falhas. Além disso, a sobrecarga no tempo de execução dos workflows foi baixo: cerca de 2%, na plataforma avaliada. ___________________________________________________________________________________ ABSTRACT / Grid computing allows its users to share autonomous and heterogeneous resources to solve highly complex computational problems. It creates an extremely dynamic environment, in which the resources may enter or leave at any given moment according to their needs. One of the major uses of Grid computing is the execution of scientific workflows, a set of necessary steps for analyzing great amounts of data. The execution time of these workflows may vary from several minutes to days. Once we combine these two characteristics - a dynamic environment and long execution times - a problem arises, since there is no mechanism to prevent resources from leaving the Grid during the execution of a task belonging to a workflow, thus introducing an error in the execution. However, the ocurrence of these errors must not make unfeasible the workflow execution. To deal with this issue fault tolerance techniques have been proposed. They allow for correct workflow execution even when facing errors during a number of faults in intermediary tasks. Many published papers deal with fault tolerance techniques for workflow execution in the Grid, but none of the studied approaches consider both the user preferences and the current status of the Grid. The current Master's Thesis proposes and evaluates a framework that provides adaptive fault tolerant execution for workflows in Grids allowing the user to define the rules by which the fault tolerance techniques will be chosen at runtime. Moreover, it allows the addition of new fault tolerance techniques. The experimental results obtained from a 5-machine Grid show that the framework is able to allow the user to set the rules and add new fault tolerance techniques at the cost of a very low overhead in the execution time: around 2% in the evalution platform.
26

A framework for building component-based applications on a cloud computing platform for high performance computing services / Um arcabouÃo para a construÃÃo de aplicaÃÃes baseadas em componentes sobre uma plataforma de nuvem computacional para serviÃos de computaÃÃo de alto desempenho

Jefferson de Carvalho Silva 29 February 2016 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / Developing High Performance Computing applications (HPC), which optimally access the available computing resources in a higher level of abstraction, is a challenge for many scientists. To address this problem, we present a proposal of a component computing cloud called HPC Shelf, where HPC applications perform and SAFe framework, a front-end aimed to create applications in HPC Shelf and the author's main contribution. SAFe is based on Scientific Workflows Management Systems (SWMS) projects and it allows the specification of computational solutions formed by components to solve problems specified by the expert user through a high level interface. For that purpose, it implements SAFeSWL, an architectural and orchestration description language for describing scientific worflows. Compared with other SWMS alternatives, besides rid expert users from concerns about the construction of parallel and efficient computational solutions from the components offered by the cloud, SAFe integrates itself to a system of contextual contracts which is aligned to a system of dynamic discovery (resolution) of components. In addition, SAFeSWL allows explicit control of life cycle stages (resolution, deployment, instantiation and execution) of components through embedded operators, aimed at optimizing the use of cloud resources and minimize the overall execution cost of computational solutions (workflows). Montage and Map/Reduce are the case studies that have been applied for demonstration, evaluation and validation of the particular features of SAFe in building HPC applications aimed to the HPC Shelf platform. / Desenvolver aplicaÃÃes de ComputaÃÃo de Alto Desempenho (CAD), que acessem os recursos computacionais disponÃveis de forma otimizada e em um nÃvel maior de abstraÃÃo, à um desafio para cientistas de diversos domÃnios. Esta Tese apresenta a proposta de uma nuvem de componentes chamada HPC Shelf, pano de fundo onde as aplicaÃÃes CAD executam, e o arcabouÃo SAFe, Front-End para criaÃÃo de aplicaÃÃes na HPC Shelf e contribuiÃÃo principal do autor. O SAFe toma como base o projeto de sistemas gerenciadores de workflows cientÃficos (SGWC), permitindo a implementaÃÃo de soluÃÃes computacionais baseadas em componentes para resolver os problemas especificados por meio de uma interface de nÃvel de abstraÃÃo mais alto. Para isso, foi desenvolvido o SAFeSWL, uma linguagem de descriÃÃo arquitetural e orquestraÃÃo de worflows cientÃficos. Comparado com outros SGWC, alÃm de livrar usuÃrios finais de preocupaÃÃes em relaÃÃo à construÃÃo de soluÃÃes computacionais paralelas e eficientes a partir dos componentes oferecidos pela nuvem, o SAFe faz uso de um sistema de contratos contextuais integrado a um sistema de descoberta (resoluÃÃo) dinÃmica de componentes. A linguagem SAFeSWL permite o controle explÃcito das etapas do ciclo de vida de um componente em execuÃÃo (resoluÃÃo, implantaÃÃo, instanciaÃÃo e execuÃÃo), atravÃs de operadores embutidos, a fim de otimizar o uso dos recursos da nuvem e minimizar os custos de sua utilizaÃÃo. Montage e Map/Reduce constituem os estudos de caso aplicados para demonstraÃÃo e avaliaÃÃo das propriedades originais do SAFe e do SAFeSWL na construÃÃo de aplicaÃÃes de CAD.
27

Verificação formal de workflows com spin / Formal workflow verification with spin

André, Amaury Bosso 16 August 2018 (has links)
Orientador: Jacques Wainer / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-16T22:50:12Z (GMT). No. of bitstreams: 1 Andre_AmauryBosso_M.pdf: 698462 bytes, checksum: 3a97278e3328845adbb26c7cb448204b (MD5) Previous issue date: 2010 / Resumo: O gerenciamento de workflows é uma realidade atualmente, mas os sistemas atuais carecem de suporte à verificação de correção em modelos de workflow. Este trabalho visa a realização de verificações em processos, objetivando a detecção de erros sintáticos, como a existência de atividades mal modeladas, ou seja, sem condições de entrada ou de saída. É objetivo deste trabalho também a definição de verificações de ordem estrutural, como detectar se o processo de workflow não possui deadlocks (estado em que o processo trava sem possibilidade de progredir), ou verificar se existem atividades mortas no processo (atividades impossíveis de serem executadas), ou se há terminações incompletas, ou seja, transições pendentes após o processo ter atingido seus objetivos. Além de verificações sintáticas e estruturais, é necessário também a realização de verificações semânticas do modelo, ou seja, é importante que os processos possam ser validados quanto a características que dizem respeito à sua organização lógica, a um nível um pouco mais alto de informação do que simplesmente estrutural. Por exemplo, é diretamente impactante na qualidade do modelo de um processo, definir se este possui conflitos ao acesso de recursos. Dessa forma, um processo estruturalmente correto, pode ficar travado em um deadlock, devido à concorrência quanto ao acesso de um recurso comum entre atividades distintas. Além disso, verificações de restrições de custo, por exemplo, também podem inviabilizar um processo. Todas essas verificações são importantes para decidir se um processo de workflow é correto. A maior contribuição deste trabalho, é então a definição de uma modelagem de processos de workflow que possibilite a verificação de problemas sintáticos, estruturais e semânticos, todos em uma única ferramenta, que se mostra escalável para processos reais, além de possibilitar a verificação de questões ad-hoc, específicas de cada instância, como verificar ordenações entre atividades específicas, etc / Abstract: Workflow management is a reality nowadays, but today's systems give very little support to verify correctness in workflow models. This work aims to perform formal verification, with the goal of detecting syntactic errors, like the existence of activities poorly modeled, in other words, activities with no precondition or effect. It is a goal too, the definition of workflows structural verification, as to detect if the process does not have deadlocks (state in which the process is stuck with no possibility of getting any further), or verifying if there are dead activities in the process (activities impossible to be reached), or if exist incomplete terminations, ie, pending transitions after the process reached its objectives. Besides syntactic and structural verifications, it is necessary too, to perform semantic verifications in the process, in other words, it is important to validate the processes in respect to characteristics of its logical organization, in a higher level of information than simply structural verification. For example, it is directly impacting in the quality of the process model the definition if it has resource access conflicts. In this way, a process that is structurally correct, can be stuck in a deadlock, due to the concurrency in the access of a common resource of distinct activities. Besides that, verifications of costs restrictions, for example, can spoil a process. All these verifications are important to decide if a workflow model is correct. The main contribution of this work is the definition of workflow processes modeling that makes it possible to perform syntactic, structural and semantic verifications, all in a unique tool, that is showed to be scalable for real process, and even possible to verify ad-hoc questions, specific to the model, as checking activities ordering, for example / Mestrado / Inteligência Artificial, Verificação e Validação / Mestre em Ciência da Computação
28

Uma proposta de meta-escalonamento e execução de workflows WS-BPEL em ambientes multi-cluster / A proposal for meta-scheduling and execution of WS-BPEL workflows in multi-cluster environments

Lechuga, Thiago Alvarenga 17 August 2018 (has links)
Orientador: Maria Beatriz Felgar de Toledo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-17T08:15:54Z (GMT). No. of bitstreams: 1 Lechuga_ThiagoAlvarenga_M.pdf: 1783434 bytes, checksum: c19e879d7401bcc97b40a2a822df8bf1 (MD5) Previous issue date: 2010 / Resumo: A utilização de sistemas distribuídos heterogêneos, tais como os Multi-Clusters, também chamados de Clusters de Clusters (CoC), e as grades computacionais, permite o desenvolvimento de sistemas computacionais mais complexos. No entanto, alguns desses sistemas requerem que os serviços sejam facilmente compostos e executados, mantendo as dependências entre eles; ambos, serviços e dependências, podem ser representados como workflows. Ainda, os serviços Web foram adotados na estrutura desses sistemas distribuídos, e WS-BPEL é o padrão para a sua composição. Portanto, o objetivo deste trabalho é permitir a execução de workflows escritos em WS-BPEL em Multi-Clusters. Para alcançar esse objetivo, uma extensão da linguagem WS-BPEL é apresentada incluindo a especificação de qualidade de serviço (QoS), juntamente com os recursos necessários para execução dos serviços no CoC. Além disso, este trabalho apresenta uma infraestrutura que permite a execução de workflows em CoC, e um estudo de caso utilizando a SHARCNET, afim de avaliar a abordagem proposta. Finalmente, um workflow científico real para gerar mosaicos personalizados do céu é implementado usando o ambiente criado / Abstract: The use of heterogeneous distributed systems, such as Multi-Clusters, as known as Cluster of Clusters (CoC), and computational grids, enables the development of complex computational systems. However some of these systems require services to be easily composed and executed while maintaining the dependencies among them; both the services and the dependencies can be represented as workflows. Moreover, Web Services have been adopted in distributed systems, and WS-BPEL is the standard for Web Services composition. Accordingly, the objective of this work is to enable the execution of WS-BPEL workflows in a CoC. In order to achieve this execution, an extension to the WS-BPEL language is presented that includes the speciçation of Quality of Services (QoS), along with the required computational resources for service execution in CoCs. Additionally, this paper presents an infrastructure that enables the execution of such workflows in CoCs, and a case study using SHARCNET is discussed in order to evaluate the proposed approach. Finally, a real scientiç workflow to generate custom mosaics of the sky is implemented using the criated environment / Mestrado / Sistemas de Informação / Mestre em Ciência da Computação
29

Mecanismos de anotação semântica para workfows cientificos / Mechanisms of semantic annotation for scientific workflows

Vitaliano Filho, Arnaldo Francisco, 1982- 07 July 2009 (has links)
Orientador: Claudia Maria Bauzer Medeiros / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-18T01:37:29Z (GMT). No. of bitstreams: 1 VitalianoFilho_ArnaldoFrancisco_M.pdf: 2435279 bytes, checksum: d273e44a51be70002d918835c2e5c11b (MD5) Previous issue date: 2009 / Resumo: O compartilhamento de informações, processos e modelos de experimentos entre cientistas de diferentes organizações e domínios do conhecimento vem aumentando com a disponibilização dessas informações e modelos na Web. Muitos destes modelos de experimentos são descritos como workflows científicos. Entretanto, não existe uma padronização para a sua descrição, dificultando assim o reaproveitamento de workflows e seus componentes já existentes. A dissertação contribui para a solução deste problema com os seguintes resultados: a análise dos problemas relativos ao compartilhamento e projeto cooperativo de workflows científicos na Web, análise de aspectos de semântica e metadados relacionados a estes workflows, a disponibilização de um editor Web de workflows usando padrões WFMC e, o desenvolvimento de um modelo de anotação semântica para workflows científicos. Com isto, a dissertação cria a base para permitir a descoberta, reuso e compartilhamento de workflows científicos nas Web. O editor permite que pesquisadores construam seus workflows e anotações de forma online, e permite o consequente teste, com dados externos, do sistema de anotações / Abstract: The sharing of information, processes and models of experiments is increasing among scientists from many organizations and areas of knowledge, and thus there is a need for supply mechanisms of workflow discovery. Many of these models are described as scientific workflows. However, there is no default specification to describe them, which complicates the reuse of workflows and components that are available. This thesis contributes to solving this problem by presenting the following results: analysis of issues related to the sharing and cooperative design of scientific workflows on the Web; analysis of semantic aspects and metadata related to workflows, the development of a Web-based workflow editor, which incorporates our semantic annotation model for scientific workflows. Given these factors, this work creates the basis to allow the discovery, reuse and sharing of scientific workflows in the Web / Mestrado / Banco de Dados / Mestre em Ciência da Computação
30

Escalonamento de workflows para provedores de SaaS/PaaS considerando dois níveis de SLA / Workflow scheduling for SaaS / PaaS cloud providers considering two SLA levels

Genez, Thiago Augusto Lopes, 1987- 21 August 2018 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-21T15:49:43Z (GMT). No. of bitstreams: 1 Genez_ThiagoAugustoLopes_M.pdf: 2286902 bytes, checksum: 384fd51ae0278ea91a914ba4b047c6cc (MD5) Previous issue date: 2012 / Resumo: Computação em nuvem oferece utilidades computacionais de acordo com a necessidade do usuário através do modelo "pago-pelo-uso". Usuários podem fazer o uso da nuvem através dos provedores de software (Software as a Service - SaaS), de plataforma (Plataform as a Service - PaaS) ou de infraestrutura (Infrastructure as a Service - IaaS). Computação em nuvem esta atualmente sendo muito utilizada. ...Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital / Abstract: Cloud computing offers utility computing according to the user's needs in a "pay-per-use" basis. Customers can make use of the cloud via Software as a Service (SaaS), Plataform as a Service (PaaS), or Infrastructure as a Service (IaaS) providers. ...Note: The complete abstract is available with the full electronic document / Mestrado / Ciência da Computação / Mestre em Ciência da Computação

Page generated in 0.0542 seconds