• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 5
  • Tagged with
  • 10
  • 9
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Einfache EPK-Semantik durch praxistaugliche Stilregeln

Gruhn, Volker, Laue, Ralf 31 January 2019 (has links)
Bekannte Ansätze zur Semantikdefinition von EPKs beschreiten zwei grundsätzlich unterschiedliche Wege, um die bestehenden Probleme (insbesondere mit nicht-lokalen Konnektoren) zu lösen: Entweder die Klasse der „gültigen“ EPKs wird stark eingeschränkt oder ein komplexer Algorithmus berechnet die Semantik (oder stellt fest, dass für die vorliegende EPK keine vernünfige Semantik existiert). Wir versuchen, einen Mittelweg zu finden und fragen, ob es wenige einfache Stilregeln für EPKs gibt, die eine einfache und eindeutige Semantikdefinition ermöglichen. Die Stilregeln sollen nicht unnötig streng sein. d.h. sie sollen möglichst viele in der Praxis vorhandenen Modelle abdecken. Wir schlagen einige einfache Stilregeln vor, die die o.g. Anforderungen erfüllen. An 285 EPK-Modellen, die wir aus verschiedensten Quellen gewonnen haben, wurde geprüft, ob das Modell die Regeln einhält. Diese Untersuchung zeigte, dass in den Fällen, in denen die Stilregeln verletzt waren, tatsächlich auch das Modell einer Ver- besserung bedurfte.
2

Adaptive Process Model Matching

Klinkmüller, Christopher 15 May 2017 (has links) (PDF)
Process model matchers automate the detection of activities that represent similar functionality in different models. Thus, they provide support for various tasks related to the management of business processes including model collection management and process design. Yet, prior research primarily demonstrated the matchers’ effectiveness, i.e., the accuracy and the completeness of the results. In this context (i) the size of the empirical data is often small, (ii) all data is used for the matcher development, and (iii) the validity of the design decisions is not studied. As a result, existing matchers yield a varying and typically low effectiveness when applied to different datasets, as among others demonstrated by the process model matching contests in 2013 and 2015. With this in mind, the thesis studies the effectiveness of matchers by separating development from evaluation data and by empirically analyzing the validity and the limitations of design decisions. In particular, the thesis develops matchers that rely on different sources of information. First, the activity labels are considered as natural-language descriptions and the Bag-of-Words Technique is introduced which achieves a high effectiveness in comparison to the state of the art. Second, the Order Preserving Bag-of-Words Technique analyzes temporal dependencies between activities in order to automatically configure the Bag-of-Words Technique and to improve its effectiveness. Third, expert feedback is used to adapt the matchers to the domain characteristics of process model collections. Here, the Adaptive Bag-of-Words Technique is introduced which outperforms the state-of-the-art matchers and the other matchers from this thesis.
3

Adaptive Process Model Matching: Improving the Effectiveness of Label-Based Matching through Automated Configuration and Expert Feedback

Klinkmüller, Christopher 14 March 2017 (has links)
Process model matchers automate the detection of activities that represent similar functionality in different models. Thus, they provide support for various tasks related to the management of business processes including model collection management and process design. Yet, prior research primarily demonstrated the matchers’ effectiveness, i.e., the accuracy and the completeness of the results. In this context (i) the size of the empirical data is often small, (ii) all data is used for the matcher development, and (iii) the validity of the design decisions is not studied. As a result, existing matchers yield a varying and typically low effectiveness when applied to different datasets, as among others demonstrated by the process model matching contests in 2013 and 2015. With this in mind, the thesis studies the effectiveness of matchers by separating development from evaluation data and by empirically analyzing the validity and the limitations of design decisions. In particular, the thesis develops matchers that rely on different sources of information. First, the activity labels are considered as natural-language descriptions and the Bag-of-Words Technique is introduced which achieves a high effectiveness in comparison to the state of the art. Second, the Order Preserving Bag-of-Words Technique analyzes temporal dependencies between activities in order to automatically configure the Bag-of-Words Technique and to improve its effectiveness. Third, expert feedback is used to adapt the matchers to the domain characteristics of process model collections. Here, the Adaptive Bag-of-Words Technique is introduced which outperforms the state-of-the-art matchers and the other matchers from this thesis.
4

Verarbeitung von ARIS-EPK-Modellen im Eclipse Modeling Framework

Kern, Heiko, Kühne, Stefan 06 February 2019 (has links)
Die Architektur integrierter Informationssysteme (ARIS) ist ein technischer Raum für den Bereich des Geschäftsprozessmanagements. Ein wesentlicher Bestandteil von ARIS ist der Modelltyp Ereignisgesteuerte Prozesskette (EPK), der in verschiedenen ARIS-Modellierungsmethoden Verwendung findet. Die Interoperabilität von ARIS-Modellen mit anderen Räumen zur Wiederverwendung bzw. Weiterverarbeitung ist durch ARIS-spezifische Export- und Import-Schnittstellen beschränkt. In diesem Beitrag wird ein umfassender Syntaxdefinitons-sensitiver Export/Import-Mechanismus für ARIS-Modelle zum Eclipse Modeling Framework (EMF-Raum) in Form einer ARIS-EMF-Brücke vorgestellt. Er ermöglicht Interoperabilität mit den vielfältigen EMF-Werkzeugen zur Modellverarbeitung. Das Anwendungspotenzial der Brücke wird anhand von Transformationsszenarien für EPK-Modelle skizziert und konkret am Beispiel der Syntaxprüfung mit ATL demonstriert.
5

Process Learning Environments

Ehrlich, Stefan, Gärtner, Jens, Daoud, Eduard, Lorz, Alexander 09 May 2019 (has links)
Purpose – Due to faster innovation cycles and competitive markets, current methods for implementing and adapting business processes can not keep pace with changing requirements and cause BPM solutions to falls short of business needs. The purpose of this paper is to propose a new approach for implementing an agile BPM methodology by substituting the plan-build-run approach with an incremental prototype-based model, removing intermediaries from the time critical path of business process evolution, and empowering end users to change business processes at runtime by manipulating process artefacts. Design/methodology/approach – Based on interviews with customers and stakeholders and our experience in implementing complex BPM solutions in SMEs, we propose key concepts for an agile BPM approach and derive basic requirements for implementing a BPM system that allows users to redefine business processes during their execution. This analysis is supplemented by a brief overview of current research trends in modelling and implementing agile BPM. Originality/value – All existing solutions examined by our team imply a separate modelling step by users or process managers. The designed key concepts enable users to implicitly model processes without interrupting day to day operations. Our approach enables organisations to introduce business process management in areas where agility is very important (e.g. product development) or to increase operational agility in areas with established BPM. Practical implications – An agile BPM solution can give organisations the flexibility they need to react quickly to changing markets and customer needs. We want to help them to introduce standardization and efficiency without losing agility. In areas where classical BPM is in place, our approach can increase the adaptation rate of process changes. In the areas of knowledge workers with a high level of agility, our approach can increase efficiency by supporting knowledge sharing.
6

Tagungsband zum 20. Interuniversitären Doktorandenseminar Wirtschaftsinformatik

25 January 2017 (has links) (PDF)
Das Interuniversitäre Doktorandenseminar Wirtschaftsinformatik ist eine regelmäßige Veranstaltung, in deren Rahmen Doktoranden der Universitäten Chemnitz, Dresden, Freiberg, Halle, Ilmenau, Jena und Leipzig ihr Promotionsprojekt präsentieren und sich den kritischen Fragen der anwesenden Professoren und Doktoranden aller beteiligten Universitäten stellen. Auf diese Weise erhalten die Promovierenden wertvolles Feedback zu Vorgehen, Methodik und inhaltlichen Aspekten ihrer Arbeit, welches sie für ihre Promotion nutzen können. Darüber hinaus bietet das Interuniversitäre Doktorandenseminar Wirtschaftsinformatik eine Plattform für eine fachliche Auseinandersetzung mit aktuellen Themen und sich ankündigenden Trends in der Forschung der Wirtschaftsinformatik. Zudem wird ein akademischer Diskurs über die Grenzen der jeweils eigenen Schwerpunkte der Professur hinaus ermöglicht. Das nunmehr 20. Jubiläum des Doktorandenseminars fand in Chemnitz statt. Der daraus entstandene Tagungsband enthält fünf ausgewählte Beiträge zu den Themenfeldern Service Engineering, Cloud-Computing, Geschäftsprozessmanagement, Requirements Engineering, Analytics und Datenqualität und zeigt damit anschaulich die Aktualität und Relevanz, aber auch die thematische Breite der gegenwärtigen Forschung im Bereich Wirtschaftsinformatik. / The inter-university PhD seminar Business Information Systems (“Interuniversitäres Doktorandenseminar Wirtschaftsinformatik”) is an annual one-day event which is organized by the Business Information Systems chairs of the universities of Chemnitz, Dresden, Freiberg, Halle, Ilmenau, Jena and Leipzig. It serves as a platform for PhD students to present their PhD topic and the current status of the thesis. Therefore, the seminar is a good opportunity to gain further knowledge and inspiration based on the feedback and questions of the participating professors and students. The 20th Interuniversitäre Doktorandenseminar Wirtschaftsinformatik took place in Chemnitz in October 2016. The resulting proceedings include five selected articles within the following topic areas: service engineering, cloud computing, business process management, requirements engineering, analytics und data quality. They illustrate the relevance as well as the broad range of topics in current business information systems research. In case of questions and comments, please use the contact details at the end of the articles.
7

Opportunities and limitations of BPM initiatives in public administrations across levels and institutions

Ahrend, Norbert 04 April 2014 (has links)
In der Privatwirtschaft ist Geschäftsprozessmanagement (GPM) mittlerweile verbreitete Praxis. Mit den stärker wirkenden demografischen Veränderungen, dem zunehmenden Kostendruck, dem daraus folgenden Ressourcenmangel sowie den gestiegenen Dienstleistungsansprüchen der Verwaltungskunden nimmt die Bedeutung von Wissensmanagement und GPM auch in der öffentlichen Verwaltung zu. Trotz eines größtenteils einheitlichen Gesetzesrahmens werden in der Verwaltung Geschäftsprozesse unterschiedlich ausgestaltet. Zwischen Projekten, die Verwaltungsprozesse zum Gegenstand haben, gibt es zu wenig Austausch von Expertise und Erfahrungen. Die Erkenntnisse aus der erfolgreichen Umsetzung von Prozessmanagement in der Privatwirtschaft sind nicht ohne weiteres in die Verwaltungspraxis übertragbar. Daher widmen wir uns in einem zweiten Beitrag verschiedenen Umsetzungsstrategien von GPM in der öffentlichen Verwaltung in Europa. Vor dem Hintergrund der derzeitigen Implementierung bzw. des Reifegrads von GPM in einzelnen Verwaltungen ist GPM längst kein integraler Bestandteil der Organisationen. Insbesondere ist die Bereitschaft, Wissen über Geschäftsprozesse zu teilen, ist sehr begrenzt. Wir untersuchen in einem weiteren Beitrag, welche Umstände, Treiber und Hemmnissen den Prozesswissens-Austausch in öffentlichen Organisationen beeinflussen. In einem abschließenden Beitrag stellen wir die wesentlichen Bausteine eines föderalen Informationsmanagements in der öffentlichen Verwaltung in Deutschland dar. Dabei haben wir untersucht, wie Daten und Informationen aus den Bereichen Leistungen, Prozesse und Formulare der öffentlichen Verwaltung miteinander zu kombinieren und zu integrieren sind. / Business Process Management (BPM) is already widely used in the private sector. The importance of knowledge management and BPM in the public administration also increases due to the advancing demographic change, the increasing cost pressures, the consequent lack of resources as well as the increased demand of customers for administrative services. Despite a uniform legal framework, the business processes are executed differently in different administrations. There is little exchange of expertise and experience between BPM projects. The goal of the research project “National Process Library” (NPL) is to create a platform to exchange and reuse processes and BPM expertise about and among German administrations. For the dissertation at hand, essential design elements of this platform have been designed and have been subject to a first evaluation. Many findings about the successful implementation of process management in the private sector cannot be directly transferred to the public administration, as there exist important differences. Hence, the second contribution focuses on the different implementation strategies of BPM in public administrations in Europe. The current degree of implementation and maturity of BPM in public administrations is generally low. Many administrations face similar challenges and offer identical or overlapping services. However, the willingness to share knowledge about business processes is very limited. Therefore, the exchange of process knowledge could lead to immense savings. The third contribution investigates the circumstances, drives and inhibitors to improve process knowledge sharing in public organizations. The last contribution represents the essential components of a federal information management in the public administration in Germany. The derived framework combines and integrates data and information from the areas of services, processes and forms of public administrations.
8

Probabilistic Estimation of Unobserved Process Events

Rogge-Solti, Andreas January 2014 (has links)
Organizations try to gain competitive advantages, and to increase customer satisfaction. To ensure the quality and efficiency of their business processes, they perform business process management. An important part of process management that happens on the daily operational level is process controlling. A prerequisite of controlling is process monitoring, i.e., keeping track of the performed activities in running process instances. Only by process monitoring can business analysts detect delays and react to deviations from the expected or guaranteed performance of a process instance. To enable monitoring, process events need to be collected from the process environment. When a business process is orchestrated by a process execution engine, monitoring is available for all orchestrated process activities. Many business processes, however, do not lend themselves to automatic orchestration, e.g., because of required freedom of action. This situation is often encountered in hospitals, where most business processes are manually enacted. Hence, in practice it is often inefficient or infeasible to document and monitor every process activity. Additionally, manual process execution and documentation is prone to errors, e.g., documentation of activities can be forgotten. Thus, organizations face the challenge of process events that occur, but are not observed by the monitoring environment. These unobserved process events can serve as basis for operational process decisions, even without exact knowledge of when they happened or when they will happen. An exemplary decision is whether to invest more resources to manage timely completion of a case, anticipating that the process end event will occur too late. This thesis offers means to reason about unobserved process events in a probabilistic way. We address decisive questions of process managers (e.g., "when will the case be finished?", or "when did we perform the activity that we forgot to document?") in this thesis. As main contribution, we introduce an advanced probabilistic model to business process management that is based on a stochastic variant of Petri nets. We present a holistic approach to use the model effectively along the business process lifecycle. Therefore, we provide techniques to discover such models from historical observations, to predict the termination time of processes, and to ensure quality by missing data management. We propose mechanisms to optimize configuration for monitoring and prediction, i.e., to offer guidance in selecting important activities to monitor. An implementation is provided as a proof of concept. For evaluation, we compare the accuracy of the approach with that of state-of-the-art approaches using real process data of a hospital. Additionally, we show its more general applicability in other domains by applying the approach on process data from logistics and finance. / Unternehmen versuchen Wettbewerbsvorteile zu gewinnen und die Kundenzufriedenheit zu erhöhen. Um die Qualität und die Effizienz ihrer Prozesse zu gewährleisten, wenden Unternehmen Geschäftsprozessmanagement an. Hierbei spielt die Prozesskontrolle im täglichen Betrieb eine wichtige Rolle. Prozesskontrolle wird durch Prozessmonitoring ermöglicht, d.h. durch die Überwachung des Prozessfortschritts laufender Prozessinstanzen. So können Verzögerungen entdeckt und es kann entsprechend reagiert werden, um Prozesse wie erwartet und termingerecht beenden zu können. Um Prozessmonitoring zu ermöglichen, müssen prozessrelevante Ereignisse aus der Prozessumgebung gesammelt und ausgewertet werden. Sofern eine Prozessausführungsengine die Orchestrierung von Geschäftsprozessen übernimmt, kann jede Prozessaktivität überwacht werden. Aber viele Geschäftsprozesse eignen sich nicht für automatisierte Orchestrierung, da sie z.B. besonders viel Handlungsfreiheit erfordern. Dies ist in Krankenhäusern der Fall, in denen Geschäftsprozesse oft manuell durchgeführt werden. Daher ist es meist umständlich oder unmöglich, jeden Prozessfortschritt zu erfassen. Zudem ist händische Prozessausführung und -dokumentation fehleranfällig, so wird z.B. manchmal vergessen zu dokumentieren. Eine Herausforderung für Unternehmen ist, dass manche Prozessereignisse nicht im Prozessmonitoring erfasst werden. Solch unbeobachtete Prozessereignisse können jedoch als Entscheidungsgrundlage dienen, selbst wenn kein exaktes Wissen über den Zeitpunkt ihres Auftretens vorliegt. Zum Beispiel ist bei der Prozesskontrolle zu entscheiden, ob zusätzliche Ressourcen eingesetzt werden sollen, wenn eine Verspätung angenommen wird. Diese Arbeit stellt einen probabilistischen Ansatz für den Umgang mit unbeobachteten Prozessereignissen vor. Dabei werden entscheidende Fragen von Prozessmanagern beantwortet (z.B. "Wann werden wir den Fall beenden?", oder "Wann wurde die Aktivität ausgeführt, die nicht dokumentiert wurde?"). Der Hauptbeitrag der Arbeit ist die Einführung eines erweiterten probabilistischen Modells ins Geschäftsprozessmanagement, das auf stochastischen Petri Netzen basiert. Dabei wird ein ganzheitlicher Ansatz zur Unterstützung der einzelnen Phasen des Geschäftsprozesslebenszyklus verfolgt. Es werden Techniken zum Lernen des probabilistischen Modells, zum Vorhersagen des Zeitpunkts des Prozessendes, zum Qualitätsmanagement von Dokumentationen durch Erkennung fehlender Einträge, und zur Optimierung von Monitoringkonfigurationen bereitgestellt. Letztere dient zur Auswahl von relevanten Stellen im Prozess, die beobachtet werden sollten. Diese Techniken wurden in einer quelloffenen prototypischen Anwendung implementiert. Zur Evaluierung wird der Ansatz mit existierenden Alternativen an echten Prozessdaten eines Krankenhauses gemessen. Die generelle Anwendbarkeit in weiteren Domänen wird examplarisch an Prozessdaten aus der Logistik und dem Finanzwesen gezeigt.
9

Semantic Process Engineering – Konzeption und Realisierung eines Werkzeugs zur semantischen Prozessmodellierung

Fellmann, Michael 23 October 2013 (has links)
In der Geschäftsprozessmodellierung haben sich semiformale, grafische Darstellungen etabliert. Die Bezeichnung der Elemente in diesen Modellen ist dabei an betriebswirtschaftliche Fachtermini angelehnt und erfolgt mit Hilfe der natürlichen Sprache, die jedoch Interpretationsspielräume mit sich bringt. Die Semantik der einzelnen Modellelemente ist somit für Menschen und Maschinen nicht eindeutig interpretierbar. In der vorliegenden Dissertation erfolgt daher die Konzeption und Realisierung einer semantischen Prozessmodellierung, die die Verknüpfung der semiformalen Prozessmodellierung mit formalen Begriffssystemen (Ontologien) gestaltet und werkzeugtechnisch unterstützt. Durch diese Verknüpfung wird die Semantik der einzelnen Modellelemente um eine eindeutige und maschinell verarbeitbare Semantik erweitert. Hierdurch können die mit formalen Ontologien möglichen Schlussfolgerungen angewendet werden, um etwa bei der Suche in Modellbeständen oder der Korrektheitsprüfung genauere oder vollständigere Ergebnisse zu erhalten. Im Ergebnis werden somit die im Bereich der Informatik und Künstlichen Intelligenz etablierten Ansätze der Wissensrepräsentation, insbesondere der Beschreibungslogik, in die fachlichen Prozessmodellierung eingebettet. Die Erprobung des Konzepts erfolgt über eine prototypische Implementierung, die einerseits die technische Umsetzbarkeit zeigt, andererseits auch für ein Laborexperiment zur Evaluation genutzt wurde.
10

Tagungsband zum 20. Interuniversitären Doktorandenseminar Wirtschaftsinformatik

Dinter, Barbara, Frenzel, Lisa, Gluchowski, Peter 25 January 2017 (has links)
Das Interuniversitäre Doktorandenseminar Wirtschaftsinformatik ist eine regelmäßige Veranstaltung, in deren Rahmen Doktoranden der Universitäten Chemnitz, Dresden, Freiberg, Halle, Ilmenau, Jena und Leipzig ihr Promotionsprojekt präsentieren und sich den kritischen Fragen der anwesenden Professoren und Doktoranden aller beteiligten Universitäten stellen. Auf diese Weise erhalten die Promovierenden wertvolles Feedback zu Vorgehen, Methodik und inhaltlichen Aspekten ihrer Arbeit, welches sie für ihre Promotion nutzen können. Darüber hinaus bietet das Interuniversitäre Doktorandenseminar Wirtschaftsinformatik eine Plattform für eine fachliche Auseinandersetzung mit aktuellen Themen und sich ankündigenden Trends in der Forschung der Wirtschaftsinformatik. Zudem wird ein akademischer Diskurs über die Grenzen der jeweils eigenen Schwerpunkte der Professur hinaus ermöglicht. Das nunmehr 20. Jubiläum des Doktorandenseminars fand in Chemnitz statt. Der daraus entstandene Tagungsband enthält fünf ausgewählte Beiträge zu den Themenfeldern Service Engineering, Cloud-Computing, Geschäftsprozessmanagement, Requirements Engineering, Analytics und Datenqualität und zeigt damit anschaulich die Aktualität und Relevanz, aber auch die thematische Breite der gegenwärtigen Forschung im Bereich Wirtschaftsinformatik. / The inter-university PhD seminar Business Information Systems (“Interuniversitäres Doktorandenseminar Wirtschaftsinformatik”) is an annual one-day event which is organized by the Business Information Systems chairs of the universities of Chemnitz, Dresden, Freiberg, Halle, Ilmenau, Jena and Leipzig. It serves as a platform for PhD students to present their PhD topic and the current status of the thesis. Therefore, the seminar is a good opportunity to gain further knowledge and inspiration based on the feedback and questions of the participating professors and students. The 20th Interuniversitäre Doktorandenseminar Wirtschaftsinformatik took place in Chemnitz in October 2016. The resulting proceedings include five selected articles within the following topic areas: service engineering, cloud computing, business process management, requirements engineering, analytics und data quality. They illustrate the relevance as well as the broad range of topics in current business information systems research. In case of questions and comments, please use the contact details at the end of the articles.

Page generated in 0.0914 seconds