1 |
User Innovation Toolkits für situationsbezogene Dienste. Konzeptionell-evaluative Geschäftsmodellanalyse und prototypische Implementierung.Simhandl, Georg 06 1900 (has links) (PDF)
Die Dissertation beschäftigt sich mit User Innovation Toolkits für situationsbezogene Dienste. Während User Innovation Toolkits Endnutzern erlauben, mobile Dienste selbst zu gestalten, haben situationsbezogene Dienste die Fähigkeit, sich an die Bedürfnisse des Nutzers und die Nutzungssituation anzupassen. Aufbauend auf einer empirischen Studie konnten drei wesentliche Herausforderungen der mobilen Telekommunikationsbranche identifiziert werden: Erstens, sind die Bedürfnisse von Nutzern mobiler Dienste hochgradig heterogen und ändern sich laufend. Zweitens, mangelt es an Geschäftsmodellen, um von dem wachsenden Markt zu profitieren. Schließlich sind technologische Probleme hinsichtlich adaptierbarer und lernfähiger Informationssysteme zu lösen. Die Untersuchung der theoretischen Grundlagen fokussierte vor allem auf den Transfer von Kundenwissen, der Wissensemergenz und der Situationstheorie und ihrer Anwendungen. Im Rahmen der Aktionsforschung konnte gemeinsam mit Fachexperten ein Ökonomisch sinnvolles generisches Geschäftsmodell für User Innovation Toolkits konzipiert und evaluiert, ein neues Vorgehensmodell zur Anforderungsanalyse generiert und die Informationsarchitektur zur Realisierung situationsbezogener Dienste modelliert werden. Die Synthese stellt den Prototyp eines User Innovation Toolkits für situationsbezogene Dienste dar. (Autorenref.)
|
2 |
Extraction and integration of Web query interfacesKabisch, Thomas 20 October 2011 (has links)
Diese Arbeit fokussiert auf die Integration von Web Anfrageschnittstellen (Web Formularen). Wir identifizieren mehrere Schritte für den Integrationsprozess: Im ersten Schritt werden unbekannte Anfrageschnittstellen auf ihre Anwendungsdomäne hin analysiert. Im zweiten Schritt werden die Anfrageschnittstellen in ein maschinenlesbares Format transformiert (Extraktion). Im dritten Schritt werden Paare semantisch gleicher Elemente zwischen den verschiedenen zu integrierenden Anfragesschnittstellen identifiziert (Matching). Diese Schritte bilden die Grundlage, um Systeme, die eine integrierte Sicht auf die verschiedenen Datenquellen bieten, aufsetzen zu können. Diese Arbeit beschreibt neuartige Lösungen für alle drei der genannten Schritte. Der erste zentrale Beitrag ist ein Exktraktionsalgorithmus, der eine kleine Zahl von Designregeln dazu benutzt, um Schemabäume abzuleiten. Gegenüber früheren Lösungen, welche in der Regel lediglich eine flache Schemarepräsentation anbieten, ist der Schemabaum semantisch reichhaltiger, da er zusätzlich zu den Elementen auch Strukturinformationen abbildet. Der Extraktionsalgorithmus erreicht eine verbesserte Qualität der Element-Extraktion verglichen mit Vergängermethoden. Der zweite Beitrag der Arbeit ist die Entwicklung einer neuen Matching-Methode. Hierbei ermöglicht die Repräsentation der Schnittstellen als Schemabäume eine Verbesserung vorheriger Methoden, indem auch strukturelle Aspekte in den Matching-Algorithmus einfließen. Zusätzlich wird eine globale Optimierung durchgeführt, welche auf der Theorie der bipartiten Graphen aufbaut. Als dritten Beitrag entwickelt die Arbeit einen Algorithms für eine Klassifikation von Schnittstellen nach Anwendungsdomänen auf Basis der Schemabäume und den abgeleiteten Matches. Zusätzlich wird das System VisQI vorgestellt, welches die entwickelten Algorithmen implementiert und eine komfortable graphische Oberfläche für die Unterstützung des Integrationsprozesses bietet. / This thesis focuses on the integration of Web query interfaces. We model the integration process in several steps: First, unknown interfaces have to be classified with respect to their application domain (classification); only then a domain-wise treatment is possible. Second, interfaces must be transformed into a machine readable format (extraction) to allow their automated analysis. Third, as a pre-requisite to integration across databases, pairs of semantically similar elements among multiple interfaces need to be identified (matching). Only if all these tasks have been solved, systems that provide an integrated view to several data sources can be set up. This thesis presents new algorithms for each of these steps. We developed a novel extraction algorithm that exploits a small set of commonsense design rules to derive a hierarchical schema for query interfaces. In contrast to prior solutions that use mainly flat schema representations, the hierarchical schema better represents the structure of the interfaces, leading to better accuracy of the integration step. Next, we describe a multi-step matching method for query interfaces which builds on the hierarchical schema representation. It uses methods from the theory of bipartite graphs to globally optimize the matching result. As a third contribution, we present a new method for the domain classification problem of unknown interfaces that, for the first time, combines lexical and structural properties of schemas. All our new methods have been evaluated on real-life datasets and perform superior to previous works in their respective fields. Additionally, we present the system VisQI that implements all introduced algorithmic steps and provides a comfortable graphical user interface to support the integration process.
|
3 |
Design and Evaluation of a Wiki-based Collaborative Process Modeling EnvironmentErol, Selim January 2012 (has links) (PDF)
The area of business process management in general and and especially business process design has only recently discovered potential applications of social software to facilitate and support collaboration [Scheer and Klueckmann, 2009]. This development is also fueled by the practical insight that organizations have experienced top-down approaches in the design and implementation of business processes to be not effective. In fact, many process management initiatives failed due to a lack of acceptance of chosen methods and tools. As a consequence in many organizations so called [Klückmann and Scheer, 2009] "Guerilla approaches" have been followed where individual organizational units introduced their own business process management philosophy and as well techniques and tools that fit their specific needs. However, Klückmann and Scheer [2009] stress the fact that although distributed business process management initiatives should generally not be hindered, it is important to channel and integrate these initiatives towards a more consistent and efficient process management in the large. Business process modeling in this context serves several purposes in the process management cycle. One purpose is the analysis of business processes to uncover potential performance weaknesses and provide a basis for improvements. Another purpose is the unambiguous documentation of business processes as a resource for knowledge transfer, organizational learning and governance.
An increasingly important purpose is the use of process models to support the design and engineering of respective enterprise information systems [Davies et al., 2006]. Hence, the complex and abstract nature of process models and the closedness of process modeling environments
has prevented them to be broadly accepted and used by non-experts [Nolte et al., 2011] viz the process community in a wider sense. Consequently, process documentation and models in organizations frequently is outdated, incomplete and inconsistent. This model-reality divide in turn leads to even more reluctance towards the adoption of process modeling environments and use of process models. Bridging this model-reality divide by fostering open and fluent col-
laboration through adequate features inspired by social software has gained growing attention by academia and industry [Mathiesen et al., 2012].
Although both industry and academia have addressed the need for collaboration support in process modeling only limited insight exists regarding the specific requirements for software-support in collaborative process modeling. This work refers to existing research (e.g. [Mendling et al., 2012; Riemer et al., 2011]) on requirements for software-support in collaborative process modeling and wiki-based process modeling (e.g. [Ghidini et al., 2010; Dengler and Vrandecic, 2011]). and pursues the following goals: (1) gain an understanding of the nature and requirements of collaborative process modeling in practice, (2) investigate how these requirements can be addressed through the design of a wiki-based collaborative process modeling environment, and (3) gain insight how a wiki-based collaborative process modeling environment supports process design activities in practice.
To address these goals a design science approach has been followed. Through a systematic literature review and qualitative expert interviews a preliminary understanding of the problem domain and specification of requirements has been achieved. Through the extension and adaption of a well-proven collaboration platform (a wiki engine) for process modeling support several of the previously identified design issues have been addressed. In particular, issues regarding the flexible integration of a visual process modeling interface component into a collaboration environment and issues regarding concurrent scenarios in process modeling have been discussed in detail and realized partly on a technical level. Two major software components have been developed for the support of collaborative process modeling. First, a light-weight and easily integratable user-interface component for process model creation has been developed and integrated into the collaboration environment (a wiki engine). Second, the identification and handling of concurrent situations when multiple modelers access and modify a process model page has been implemented on an element level which allows for the interactive resolution and semi-automatic merging of conflicting revisions of a process model. Case-studies in an industrial and an academic setting provided valuable insights in the practice of collaborative process modeling and gave feedback on the applicability of a wiki-based approach. The first case-study of a process re-design in the recruiting department of an office supply manufacturing company in Hungary describes the insights gained during a long-term collaboration within a small group. Findings were especially valuable for further enhancements of the software and an understanding of practical requirements in iterative model creation and validation. The second case-study in the context of two bachelor and master courses in information system design has lead to insights regarding the requirements in highly dynamic collaboration scenarios in small groups and large groups but as well regarding the efficiency and effectiveness of wiki-based process modeling in collaborative learning processes. (author's abstract)
|
4 |
Indexing RDF data using materialized SPARQL queriesEspinola, Roger Humberto Castillo 10 September 2012 (has links)
In dieser Arbeit schlagen wir die Verwendung von materialisierten Anfragen als Indexstruktur für RDF-Daten vor. Wir streben eine Reduktion der Bearbeitungszeit durch die Minimierung der Anzahl der Vergleiche zwischen Anfrage und RDF Datenmenge an. Darüberhinaus betonen wir die Rolle von Kostenmodellen und Indizes für die Auswahl eines efizienten Ausführungsplans in Abhängigkeit vom Workload. Wir geben einen Überblick über das Problem der Auswahl von materialisierten Anfragen in relationalen Datenbanken und diskutieren ihre Anwendung zur Optimierung der Anfrageverarbeitung. Wir stellen RDFMatView als Framework für SPARQL-Anfragen vor. RDFMatView benutzt materializierte Anfragen als Indizes und enthalt Algorithmen, um geeignete Indizes fur eine gegebene Anfrage zu finden und sie in Ausführungspläne zu integrieren. Die Auswahl eines effizienten Ausführungsplan ist das zweite Thema dieser Arbeit. Wir führen drei verschiedene Kostenmodelle für die Verarbeitung von SPARQL Anfragen ein. Ein detaillierter Vergleich der Kostmodelle zeigt, dass ein auf Index-- und Prädikat--Statistiken beruhendes Modell die genauesten Informationen liefert, um einen effizienten Ausführungsplan auszuwählen. Die Evaluation zeigt, dass unsere Methode die Anfragebearbeitungszeit im Vergleich zu unoptimierten SPARQL--Anfragen um mehrere Größenordnungen reduziert. Schließlich schlagen wir eine einfache, aber effektive Strategie für das Problem der Auswahl von materialisierten Anfragen über RDF-Daten vor. Ausgehend von einem bestimmten Workload werden algorithmisch diejenigen Indizes augewählt, die die Bearbeitungszeit des gesamten Workload minimieren sollen. Dann erstellen wir auf der Basis von Anfragemustern eine Menge von Index--Kandidaten und suchen in dieser Menge Zusammenhangskomponenten. Unsere Auswertung zeigt, dass unsere Methode zur Auswahl von Indizes im Vergleich zu anderen, die größten Einsparungen in der Anfragebearbeitungszeit liefert. / In this thesis, we propose to use materialized queries as a special index structure for RDF data. We strive to reduce the query processing time by minimizing the number of comparisons between the query and the RDF dataset. We also emphasize the role of cost models in the selection of execution plans as well as index sets for a given workload. We provide an overview of the materialized view selection problem in relational databases and discuss its application for optimization of query processing. We introduce RDFMatView, a framework for answering SPARQL queries using materialized views as indexes. We provide algorithms to discover those indexes that can be used to process a given query and we develop different strategies to integrate these views in query execution plans. The selection of an efficient execution plan states the topic of our second major contribution. We introduce three different cost models designed for SPARQL query processing with materialized views. A detailed comparison of these models reveals that a model based on index and predicate statistics provides the most accurate cost estimation. We show that selecting an execution plan using this cost model yields a reduction of processing time with several orders of magnitude compared to standard SPARQL query processing. Finally, we propose a simple yet effective strategy for the materialized view selection problem applied to RDF data. Based on a given workload of SPARQL queries we provide algorithms for selecting a set of indexes that minimizes the workload processing time. We create a candidate index by retrieving all connected components from query patterns. Our evaluation shows that using the set of suggested indexes usually achieves larger runtime savings than other index sets regarding the given workload.
|
Page generated in 0.0146 seconds