• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 39
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 119
  • 32
  • 31
  • 23
  • 21
  • 21
  • 19
  • 18
  • 16
  • 15
  • 14
  • 13
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Systemunterstützung zur automatischen Anpassung von Workflows zur Laufzeit

Sell, Christian 20 April 2011 (has links)
In dieser Arbeit wird ein Ansatz zur automatischen Berechnung und Ausführung von strukturellen Anpassungsmöglichkeiten für Workflows auf Basis von Kontextinformationen entwickelt. Zur Sicherstellung der semantischen Korrektheit der Anpassungsmöglichkeiten werden zwei Arten von Einschränkungen berücksichtigt: Zustandsbezogene Einschränkungen (ZBE) und Aktivitätsabhängigkeiten (AA). ZBEs spezifizieren Einschränkungen zwischen Anpassungsoperationen und dem Ausführungszustand des Workflows. AAs beschreiben temporale Beziehungen zwischen Aktivitäten eines Workflows.
72

Orchestration of HPC Workflows: Scalability Testing and Cross-System Execution

Tronge, Jacob 14 April 2022 (has links)
No description available.
73

Benchmarking Complex eHealth Innovations - Konzeption, Entwicklung und Umsetzung einer skalierbaren Austauschplattform zur Unterstützung innovativer eHealth-Strategien in Krankenhäusern

Liebe, Jan-David 11 October 2018 (has links)
Hintergrund und Zielsetzung: Für die strategische Steuerung von IT-Innovationsprozessen benötigen IT-Leiter in Krankenhäuser fortwährend entscheidungsunterstützende Informationen. Insbesondere drei Fragen gilt es dabei zu beantworten: (1.) Wie ist der Status Quo des IT-Betriebes bzw. inwieweit wurden die strategischen IT-Ziele bereits erreicht? (2.) In welchen Bereichen ergeben sich Entwicklungspotenziale, auch im Vergleich zu ähnlichen Krankenhäusern und (3.) wie können IT-Innovationsprozesse möglichst optimal durchgeführt werden bzw. was sind die Best Practices? Benchmarkings bietet einen vielversprechenden Lösungsansatz zur Beantwortung dieser Fragestellungen. Gleichzeitig ergeben sich aus dem inkrementellen und komplexen Charakter von IT-Innovationsprozessen in Krankenhäusern spezifische Anforderungen an die Durchführung solcher Verfahren. Diese beziehen sich zuallererst auf die Frage, wie das zentrale Benchmarking-Objekt - die Realisierung von IT-Innovationen - vergleichbar über Key-Performance-Indikatoren (KPIs) erfasst werden kann. So lässt sich der Reifegrad von Krankenhausinformationssystemen (KIS) nicht alleine über die Anzahl der implementierten IT-Funktionen messen. Auch andere Aspekte wie bspw. die Interoperabilität und die Distribuierbarkeit von IT-Funktionen und Patienteninformationen müssen berücksichtigt werden. Neben einem optimalen Zusammenspiel technischer Komponenten erfordert die Realisierung von IT-Innovationen darüber hinaus immer auch eine Verknüpfung innovationsfördernden Faktoren auf organisatorischer Ebene. Auch diese müssen für eine plausible Reifegradmessung berücksichtigt werden. Neben der Komplexität des Benchmarking-Objekts stellt darüber hinaus die zeitliche Skalierbarkeit des Verfahrens eine Herausforderung dar. Gerade in Krankenhäusern entstehen IT-Innovationen zumeist inkrementell über längere Zeiträume. Entsprechend muss auch ein Benchmarking von komplexen IT-Innovationen langfristig und regelmäßig angelegt sein, um auf Basis longitudinaler Trend- oder Panelstudien inkrementelle Entwicklungen valide beschreiben und Ursache-Wirkungsbeziehungen erklären zu können. Eine weitere Anforderung bezieht sich auf die inhaltliche Kalibrierbarkeit des Verfahrens. So ist die Realisierung von IT-Innovationen in Krankenhäusern nicht selten von Unwägbarkeiten, Fehlentwicklungen und Zufällen gekennzeichnet. Gleichzeitig werden die Lebenszyklen existierender Anwendungen zunehmend kürzer und auch der Markteintritt neuer Technologien, die als innovative Bestandteile das KIS insgesamt modular erneuern, erfolgt in immer kürzer werdenden Abständen. Damit das Benchmarking-Verfahren diese dynamischen Entwicklungen berücksichtigen kann, müssen die genutzten Erhebungsinstrumente und die darunter liegenden Datenmodelle kontinuierlich angepasst werden. Nicht zuletzt ist die Anforderung einer möglichst ressourcenschonenden Umsetzung des Verfahrens zu nennen. So zeigt sich mit Blick auf gescheiterte IT-Benchmark-Initiativen, dass sich vor allem die Datenerhebung -auswertung und -visualisierung sowohl für die Benchmarking-Teilnehmer, als auch für koordinierende Instanzen unter Kosten-Nutzen-Erwägungen als zu ressourcenintensiv herausstellt hat. Ziel der Dissertation war die Umsetzung einer IT-Benchmarking-Plattform, die den beschrieben Anforderungen gerecht wird und somit die Realisierung von IT-Innovationsprozessen unterstützten kann. Die Konzeption und Entwicklung der Plattform basierte auf der Annahme, dass sich ein solches Verfahren besonders dann erfolgreich umsetzen lässt, wenn es auf einem kontinuierlichen Dialog zwischen Praxis und Forschung aufbaut. So existieren spiegelbildlich zu den Informationsbedarfen der Praktiker (s.o.) immer auch forschungsseitige Interessen, empirische Daten zur Beschreibung und Erklärung von IT-Innovationsprozessen zu erheben. Aus dem so beschriebenen Anreiz zum Informationsaustausch können sich Netzwerkeffekte ergeben, die eine langfristige Etablierung des Verfahrens begünstigen. Die hieraus abgeleitete Arbeitshypothese lässt sich wie folgt zusammenfassen: Wird die Benchmarking-Plattform im Zeitverlauf zunehmend mehr genutzt, kann (1.) das entscheidungsunterstützende Informationsangebot für die Teilnehmer fortlaufend optimiert werden (bspw. durch die Möglichkeit von Trendanalysen bei langjähriger Teilnahme), (2.) der wissenschaftliche Erkenntnisstand über die erfolgreiche Realisierung von IT-Innovationsprozesse in Krankenhäusern kontinuierlich angereichert werden (insb. durch die Möglichkeit der empirischen Überprüfung von Hypothesen, Modellen und Theorien) und (3.) das Benchmarking-Verfahren selber fortlaufend weiterentwickelt werden (durch den anhaltenden Rückgriff auf praktische Anforderungen einerseits und den aktuellen wissenschaftlichen Erkenntnisstand andererseits). Vor diesem Hintergrund ergaben sich vier Forschungsfragen (FF), die im Verlauf der vorgestellten Dissertation beantwortet werden sollten: (FF1) Wie kann der Realisierungsgrad komplexer IT-Innovationen in Krankenhäusern umfassend und vergleichbar in Form quantitativer KPIs erfasst werden? (FF2) Wie kann die Realisierung komplexer IT-Innovationen darüber hinaus im Sinne praktischer und theoretischer Implikationen erklärt werden? (FF3) Wie können die entsprechenden Ergebnisse den Benchmarking-Teilnehmern in geeigneter Form zurückgespiegelt werden und (FF4) wie kann die Benchmarking-Plattform möglichst ressourcenschonend umgesetzt werden? Methode: Das methodische Vorgehen zur Umsetzung der Benchmarking-Plattform erfolgte in einem iterativen Prozess im Verlauf von drei Benchmarking-Runden und orientierte sich an den aufgestellten Forschungsfragen. Für die Entwicklung der KPIs (FF1) wurden in einem mehrstufigen Operationalisierungsprozess Composite Scores entwickelt, mit denen sowohl der technische als auch der organisatorische Reifegrad in Bezug auf IT-Innovationen quantifiziert werden sollte. Ausgehend von Literaturreviews und Experteninterviews wurden in einem ersten Schritt die entsprechenden Konstrukte inklusive ihrer Sub-Dimensionen definiert. In einem zweiten Schritt wurden die Beschreibungsgrößen in standardisierte Fragebögen überführt und in ein Online-Erhebungsinstrument eingepflegt. In einem dritten Schritt wurden die Fragebögen mehreren Pretest unterzogen, an denen sich jeweils IT-Leiter, Kliniker und Forscher aus dem Bereich der Medizinischen Informatik. In einem vierten Schritt wurde alle IT-Leitern der deutschen Krankenhäuser im Rahmen im Rahmen der jeweiligen Benchmarking-Runde eingeladen, an der Online-Umfragen teilzunehmen . Die Emailadressen der IT-Leiter wurden in einer vorab durchgeführten Internet- und Telefonrecherche erfasst. Nach Beendigung der Umfragen wurden die erfassten Daten zur Berechnung von Composite Scores genutzt. Zur Überprüfung der Testgüte wurden Reliabilitätstests und Hauptkomponentenanalysen durchgeführt. Ausgehend von den entsprechenden Teststatistiken und den Rückmeldungen der Benchmarking-Teilnehmer wurden die entwickelten Items-Sets zur Erfassung der Composite Scores im Verlauf der drei Benchmarking-Runden mehrfach angepasst. Zur Erklärung komplexer IT-Innovationen (FF2) wurden Zusammenhänge zwischen den entwickelten Composite Scores modelliert. Die entsprechenden Hypothesensätze wurden in einem deduktiven Verfahren aus etablierten Theorien zur Verbreitung von (IT-)Innovationen abgeleitet (insb. aus der Diffusion of Innovations Theorie). Die aufgestellten Hypothesen wurden überprüft, indem auf Basis der Angaben der Benchmarking-Teilnehmer statistische Modelle berechnet wurden. Bei den hierbei genutzten Verfahren handelte es sich insbesondere um multiple Regressionsanalysen und Strukturgleichungsmodelle. Zur Identifikation geeigneter Visualisierungsformen (FF3) wurden die entwickelten KPIs sowohl mit gängigen Darstellungsformen (insb. Säulen- Kreis- und Balkendiagrammen), als auch mit neu entwickelten Diagrammen visualisiert und den Benchmarking-Teilnehmern zurückgespiegelt. Die Ergebnisse wurden den Teilnehmern referenzgruppenspezifisch (nach Größe und Trägerschaft) dargestellt. Nach jeder Benchmarking-Runde wurde die Verständlichkeit und Nützlichkeit der Benchmarking-Berichte evaluiert und für die Weiterentwicklung des Verfahrens genutzt. Ebenfalls abgefragt wurden die Anwendungszwecke der Benchmarks. Für eine möglichst ressourcenschonend Umsetzung des Verfahrens (FF4), wurde der Prozess der Datenhebung, -auswertung und -visualisierung im Verlauf der drei Benchmarking-Runden schrittweise automatisiert. Hierfür wurde eine Data-Warehouse basierte Webplattform konzipiert und umgesetzt. Die hierbei genutzten Methoden reichten von der Systemspezifikation und -auswahl bis hin zur Entwicklung geeigneter Datenmodelle und dem Aufbau einer integrierten Systemarchitektur . Ergebnisse: Im Rahmen der vorgestellten Dissertation wurden drei Benchmarking-Runden durchgeführt, wobei die Teilnehmerzahl von anfänglich 59 Einrichtungen auf letztlich 197 Krankenhäuser ausgeweitet werden konnte. Nachfolgend wird zusammenfassend dargestellt, wie die Benchmarking-Plattform im Verlauf der drei Runden und entlang der vier Forschungsfragen (weiter-) entwickelt wurde. Zur Erfassung des Realisierungsgrades komplexer IT-Innovationen wurden insgesamt drei Composite Scores entwickelt. Die Beschreibung des technischen Reifegrades erfolgte über den Workflow-Composite-Score (WCS). Ausgehend von dem Prinzip der klinischen Informationslogistik erfasst der WCS, inwiefern die klinischen Abläufe in den teilnehmenden Krankenhäusern bereits durch das KIS unterstützt werden. Als vergleichbare Prozesse wurden die Visite, die OP-Vorbereitung, die OP-Nachbereitung und die Entlassung ausgewählt (in der dritten Benchmarking-Runde wurde die Aufnahme als fünfter Prozess hinzugenommen). Der Grad der IT-Prozessunterstützung wurde über vier Deskriptoren erfasst. Dies waren „Funktion“ (welche IT-Funktionen stehen den Anwendern bereits zur Verfügung?), „Daten und Information“ (welche Patientendaten stehen den Anwendern bereits elektronisch in den Prozessen zur Verfügung?), „Integration“ (wie integriert sind die bereits umgesetzten Systeme?) und „Distribution“ (inwiefern stehen die IT-Funktionen und elektronische Patientendaten den Anwendern am Point of Care zur Verfügung?). Basierend auf dem so entstandenen, zweidimensionalen Bezugsrahmen von Prozessen und Deskriptoren wurde ein Kennzahlensystem abgeleitet, welches den Benchmarking-Teilnehmern den Reifegrad ihres KIS auf unterschiedlichen Ebenen und im Vergleich zu ähnlichen Krankenhäusern aufzeigt (angefangen mit dem WCS als Spitzenkennzahl, über die Deskriptor- und Prozesskennzahlen bis hin zu 98 Einzelindikatoren). Zur Beschreibung des organisatorischen Reifegrades wurde zwei Composite Scores entwickelt. Zum einen wurde über den Professionalisierungsgrad des Informationsmanagements (IM) erfasst, wie regelmäßig und formalisiert IM-Aktivitäten auf operativer, taktischer und strategischer Ebene durchgeführt werden. Zum anderen wurde über die wahrgenommene IT-Innovationsfähigkeit erfasst, (1.) wie ausgeprägt der Unterstützungsgrad durch die Krankenhausleitung ist, (2.) wie ausgeprägt die Intrapreneurship-Kultur auf unterschiedlichen Organisationsebenen ist und (3.) inwiefern in der teilnehmenden Einrichtung bereits eine kooperative und visionäre Zusammenarbeit zwischen den IT-Stakeholder besteht. Für alle Composite Scores und Sub Scores (bzw. Item-Sets) konnte eine zufriedenstellende bis gute Testgüte nachgewiesen werden. Aus der statistischen Überprüfung der entwickelten Erklärungsmodelle konnte diverse Erfolgsfaktoren und Begleitumstände von IT-Innovationsprozessen in Krankenhäusern identifiziert werden. So konnte unter anderem nachgewiesen werden, dass eine enge Zusammenarbeit zwischen IT-Mitarbeitern und klinischen Anwendern insbesondere die erste Phase von Innovationsprozessen positiv determinieren kann. Auch konnte gezeigt werden, dass sich eine ausgeprägte Intrapreneurship-Kultur positiv auf den Professionalisierungsgrad des Informationsmanagements und somit indirekt auch auf den technischen Reifegrad des KIS auswirkt. Andere Erkenntnisse bezogen sich auf den Einfluss struktureller Krankenhauscharakteristika. So konnte unter anderem gezeigt werden, dass die Größe, die Trägerschaft und der Status eines Lehrkrankenhauses einen signifikanten Einfluss auf den Realisierungsgrad von IT-Innovationen haben. Die Evaluationsergebnisse der Benchmark-Visualisierung ergaben, dass die genutzten Darstellungsformen als verständlich und nützlich eingeschätzt wurden. Nach Angaben der Teilnehmer wurden die Benchmarks insbesondere zur Status Quo- und Potenzialanalyse, zur Diskussion mit IT-Stakeholdern (insb. Anwender und Krankenhausleitung) und zur strategischen Steuerung des IT-Betriebes genutzt. Die Umsetzung der Benchmarking-Plattform erfolgte in den ersten zwei Runden über eine Auswahl heterogener Softwareanwendungen. In der dritten Benchmarking-Runde wurden die einzelnen Systemkomponenten zur Datenerhebung, -analyse und -visualisierung in eine integrierte Systemarchitektur überführt. Im Sinne der angestrebten Ressourceneffizienz wurde das Systemdesign vollständig mit Open Source Komponenten umgesetzt. Fazit: Ziel der vorgestellten Dissertation war die Umsetzung einer skalierbaren Benchmarking-Plattform zur Unterstützung innovativer IT-Strategien in Krankenhäusern. Hierfür wurde die grundsätzliche Annahme getroffen, dass die erfolgreiche Etablierung des Verfahrens von einem kontinuierlichen Dialog zwischen Krankenhauspraxis und Forschung profitieren kann. Die entsprechende Arbeitshypothese konnte bestätigt werden. So stieg die Teilnehmerzahl entlang von drei Benchmarking-Runden auf knapp 200 Einrichtungen. Wie die Evaluationen zeigten, konnten die Benchmarks von den teilnehmenden IT-Leitern für die Ausrichtung innovativer IT-Strategien genutzt werden (praktische Implikation). Gleichzeitig konnte der Erkenntnisgewinn über die Beschreibung und Erklärung von IT-Innovationen, insb. durch die Entwicklung einer umfassenden Reifegradmessung und durch die Identifikation wesentlicher Begleitumstände von IT-Innovationssprossen, angereichert werden (theoretische Implikation). Zusammengenommen konnte mit der Plattform im Verlauf der vorgestellten Dissertation ein systematisches Monitoring-Verfahren der Krankenhausdigitalisierung in Deutschland entwickelt werden.
74

Digital Provenance Techniques and Applications

Amani M Abu Jabal (9237002) 13 August 2020 (has links)
This thesis describes a data provenance framework and other associated frameworks for utilizing provenance for data quality and reproducibility. We first identify the requirements for the design of a comprehensive provenance framework which can be applicable to various applications, supports a rich set of provenance metadata, and is interoperable with other provenance management systems. We then design and develop a provenance framework, called SimP, addressing such requirements. Next, we present four prominent applications and investigate how provenance data can be beneficial to such applications. The first application is the quality assessment of access control policies. Towards this, we design and implement the ProFact framework which uses provenance techniques for collecting comprehensive data about actions which were either triggered due to a network context or a user (i.e., a human or a device) action. Provenance data are used to determine whether the policies meet the quality requirements. ProFact includes two approaches for policy analysis: structure-based and classification-based. For the structure-based approach, we design tree structures to organize and assess the policy set efficiently. For the classification-based approach, we employ several classification techniques to learn the characteristics of policies and predict their quality. In addition, ProFact supports policy evolution and the assessment of its impact on the policy quality. The second application is workflow reproducibility. Towards this, we implement ProWS which is a provenance-based architecture for retrieving workflows. Specifically, ProWS transforms data provenance into workflows and then organizes data into a set of indexes to support efficient querying mechanisms. ProWS supports composite queries on three types of search criteria: keywords of workflow tasks, patterns of workflow structure, and metadata about workflows (e.g., how often a workflow was used). The third application is the access control policy reproducibility. Towards this, we propose a novel framework, Polisma, which generates attribute-based access control policies from data, namely from logs of historical access requests and their corresponding decisions. Polisma combines data mining, statistical, and machine learning techniques, and capitalizes on potential context information obtained from external sources (e.g., LDAP directories) to enhance the learning process. The fourth application is the policy reproducibility by utilizing knowledge and experience transferability. Towards this, we propose a novel framework, FLAP, which transfer attribute-based access control policies between different parties in a collaborative environment, while considering the challenges of minimal sharing of data and support policy adaptation to address conflict. All frameworks are evaluated with respect to performance and accuracy.
75

A comparative assessment of improvements in workflow automation : An analysis based on GitHub Actions in opensource projects

Spångberg, Mattias, Wiklund, Albin January 2023 (has links)
The number of people working together in repositories grows every day. With increasing activity and interaction in a repository the amount of work required to maintain high quality and productivity is a problem. Automating workflows is a solution many developers lean towards in order to handle the problem but the effects of workflow automation is not yet determined enough to say that it actually helps. Based on GitHub’s workflow automation tool, GitHub Actions, this study looks at the effects of workflow automation by analysing the amount and speed of work in repositories on GitHub. To further understand the effects this study looks at the impact of the number of people interacting with a repository on the speed in which developers work. This study performs a statistical analysis on the difference between repositories that use workflow automation and those that do not to further increase knowledge of developers so that they can make informed decisions. Analysis on the effects of workflow automation shows that repositories that use it have an increased amount of committed code, more pull requests, uses issues more, faster pull request closure, and faster issue closure rates. In general repositories using workflow automation have more stars and contributors than those without. Analysis of the impact of the number of contributors show that usage of workflow automation increases with contributors. The study concludes that further research is required to determine if workflow automation is the causing factor of this or the implementation of workflow automation is an effect of increased activity in repositories.
76

Designing Design: Exploring Digital Workflows in Architecture

Faber, George 22 June 2015 (has links)
No description available.
77

Continuously Extensible Information Systems: Extending the 5S Framework by Integrating UX and Workflows

Chandrasekar, Prashant 11 June 2021 (has links)
In Virginia Tech's Digital Library Research Laboratory, we support subject-matter-experts (SMEs) in their pursuit of research goals. Their goals include everything from data collection to analysis to reporting. Their research commonly involves an analysis of an extensive collection of data such as tweets or web pages. Without support -- such as by our lab, developers, or data analysts/scientists -- they would undertake the data analysis themselves, using available analytical tools, frameworks, and languages. Then, to extract and produce the information needed to achieve their goals, the researchers/users would need to know what sequences of functions or algorithms to run using such tools, after considering all of their extensive functionality. Our research addresses these problems directly by designing a system that lowers the information barriers. Our approach is broken down into three parts. In the first two parts, we introduce a system that supports discovery of both information and supporting services. In the first part, we describe the methodology that incorporates User eXperience (UX) research into the process of workflow design. Through the methodology, we capture (a) what are the different user roles and goals, (b) how we break down the user goals into tasks and sub-tasks, and (c) what functions and services are required to solve each (sub-)task. In the second part, we identify and describe key components of the infrastructure implementation. This implementation captures the various goals/tasks/services associations in a manner that supports information inquiry of two types: (1) Given an information goal as query, what is the workflow to derive this information? and (2) Given a data resource, what information can we derive using this data resource as input? We demonstrate both parts of the approach, describing how we teach and apply the methodology, with three case studies. In the third part of this research, we rely on formalisms used in describing digital libraries to explain the components that make up the information system. The formal description serves as a guide to support the development of information systems that generate workflows to support SME information needs. We also specifically describe an information system meant to support information goals that relate to Twitter data. / Doctor of Philosophy / In Virginia Tech's Digital Library Research Laboratory, we support subject-matter-experts (SMEs) in their pursuit of research goals. This includes everything from data collection to analysis to reporting. Their research commonly involves an analysis of an extensive collection of data such as tweets or web pages. Without support -- such as by our lab, developers, or data analysts/scientists -- they would undertake the data analysis themselves, using available analytical tools, frameworks, and languages. Then, to extract and produce the information needed to achieve their goals, the researchers/users would need to know what sequences of functions or algorithms to run using such tools, after considering all of their extensive functionality. Further, as more algorithms are being discovered and datasets are getting larger, the information processing effort is getting more and more complicated. Our research aims to address these problems directly by attempting to lower the barriers, through a methodology that integrates the full life cycle, including the activities carried out by User eXperience (UX), analysis, development, and implementation experts. We devise a three part approach to this research. The first two parts concern building a system that supports discovery of both information and supporting services. First, we describe the methodology that introduces UX research into the process of workflow design. Second, we identify and describe key components of the infrastructure implementation. We demonstrate both parts of the approach, describing how we teach and apply the methodology, with three case studies. In the third part of this research, we extend formalisms used in describing digital libraries to encompass the components that make up our new type of extensible information system.
78

Fluxo de dados em redes de Petri coloridas e em grafos orientados a atores / Dataflow in colored Petri nets and in actors-oriented workflow graphs

Borges, Grace Anne Pontes 11 September 2008 (has links)
Há três décadas, os sistemas de informação corporativos eram projetados para apoiar a execução de tarefas pontuais. Atualmente, esses sistemas também precisam gerenciar os fluxos de trabalho (workflows) e processos de negócio de uma organização. Em comunidades científicas de físicos, astrônomos, biólogos, geólogos, entre outras, seus sistemas de informações distinguem-se dos existentes em ambientes corporativos por: tarefas repetitivas (como re-execução de um mesmo experimento), processamento de dados brutos em resultados adequados para publicação; e controle de condução de experimentos em diferentes ambientes de hardware e software. As diferentes características dos dois ambientes corporativo e científico propiciam que ferramentas e formalismos existentes ou priorizem o controle de fluxo de tarefas, ou o controle de fluxo de dados. Entretanto, há situações em que é preciso atender simultaneamente ao controle de transferência de dados e ao controle de fluxo de tarefas. Este trabalho visa caracterizar e delimitar o controle e representação do fluxo de dados em processos de negócios e workflows científicos. Para isso, são comparadas as ferramentas CPN Tools e KEPLER, que estão fundamentadas em dois formalismos: redes de Petri coloridas e grafos de workflow orientados a atores, respectivamente. A comparação é feita por meio de implementações de casos práticos, usando os padrões de controle de dados como base de comparação entre as ferramentas. / Three decades ago, business information systems were designed to support the execution of individual tasks. Todays information systems also need to support the organizational workflows and business processes. In scientific communities composed by physicists, astronomers, biologists, geologists, among others, information systems have different characteristics from those existing in business environments, like: repetitive procedures (such as re-execution of an experiment), transforming raw data into publishable results; and coordinating the execution of experiments in several different software and hardware environments. The different characteristics of business and scientific environments propitiate the existence of tools and formalisms that emphasize control-flow or dataflow. However, there are situations where we must simultaneously handle the data transfer and control-flow. This work aims to characterize and define the dataflow representation and control in business processes and scientific workflows. In order to achieve this, two tools are being compared: CPN Tools and KEPLER, which are based in the formalisms: colored Petri nets and actors-oriented workflow graphs, respectively. The comparison will be done through implementation of practical cases, using the dataflow patterns as comparison basis.
79

Exécution interactive pour expériences computationnelles à grande échelle

Dias, Jonas 18 December 2013 (has links) (PDF)
Para lidar com a natureza exploratória da ciência e o processo dinâmico envolvido nas análises científicas, os sistemas de gerência de workflows dinâmicos são essenciais. Entretanto, workflows dinâmicos são considerados como um desafio em aberto, devido à complexidade em gerenciar o workflow em contínua adaptação, em tempo de execução, por eventos externos como a intervenção humana. Apoiar iterações dinâmicas é um passo importante na direção dos workflows dinâmicos uma vez que a interação entre o usuário e o workflow é iterativa. Porém, o apoio existente para iterações em workflows científicos é estático e não permite mudanças, em tempo de execução, nos dados do workflow, como critérios de filtros e margens de erro. Nesta tese, propomos uma abordagem algébrica para dar apoio a iterações centradas em dados em workflows dinâmicos. Propomos o conceito de linhagem da iteração de forma que a gerência dos dados de proveniência seja consistente com as interações com o workflow. A linhagem também possibilita que os cientistas interajam com os dados do workflow por meio de dois algoritmos implementados no sistema de workflows Chiron. Avaliamos a nossa abordagem utilizando workflows reais em ambientes de execução em larga escala. Os resultados mostram melhorias no tempo de execução de até 24 dias quando comparado com uma abordagem tradicional não iterativa. Realizamos consultas complexas aos resultados parciais ao longo das iterações do workflow. A nossa abordagem introduz uma sobrecarga de no máximo 3,63% do tempo de execução. O tempo para executar os algoritmos de interação também é menor que 1 milissegundo no pior cenário avaliado.
80

Fluxo de dados em redes de Petri coloridas e em grafos orientados a atores / Dataflow in colored Petri nets and in actors-oriented workflow graphs

Grace Anne Pontes Borges 11 September 2008 (has links)
Há três décadas, os sistemas de informação corporativos eram projetados para apoiar a execução de tarefas pontuais. Atualmente, esses sistemas também precisam gerenciar os fluxos de trabalho (workflows) e processos de negócio de uma organização. Em comunidades científicas de físicos, astrônomos, biólogos, geólogos, entre outras, seus sistemas de informações distinguem-se dos existentes em ambientes corporativos por: tarefas repetitivas (como re-execução de um mesmo experimento), processamento de dados brutos em resultados adequados para publicação; e controle de condução de experimentos em diferentes ambientes de hardware e software. As diferentes características dos dois ambientes corporativo e científico propiciam que ferramentas e formalismos existentes ou priorizem o controle de fluxo de tarefas, ou o controle de fluxo de dados. Entretanto, há situações em que é preciso atender simultaneamente ao controle de transferência de dados e ao controle de fluxo de tarefas. Este trabalho visa caracterizar e delimitar o controle e representação do fluxo de dados em processos de negócios e workflows científicos. Para isso, são comparadas as ferramentas CPN Tools e KEPLER, que estão fundamentadas em dois formalismos: redes de Petri coloridas e grafos de workflow orientados a atores, respectivamente. A comparação é feita por meio de implementações de casos práticos, usando os padrões de controle de dados como base de comparação entre as ferramentas. / Three decades ago, business information systems were designed to support the execution of individual tasks. Todays information systems also need to support the organizational workflows and business processes. In scientific communities composed by physicists, astronomers, biologists, geologists, among others, information systems have different characteristics from those existing in business environments, like: repetitive procedures (such as re-execution of an experiment), transforming raw data into publishable results; and coordinating the execution of experiments in several different software and hardware environments. The different characteristics of business and scientific environments propitiate the existence of tools and formalisms that emphasize control-flow or dataflow. However, there are situations where we must simultaneously handle the data transfer and control-flow. This work aims to characterize and define the dataflow representation and control in business processes and scientific workflows. In order to achieve this, two tools are being compared: CPN Tools and KEPLER, which are based in the formalisms: colored Petri nets and actors-oriented workflow graphs, respectively. The comparison will be done through implementation of practical cases, using the dataflow patterns as comparison basis.

Page generated in 0.1041 seconds