• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 3
  • Tagged with
  • 9
  • 9
  • 9
  • 8
  • 8
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Recovering the Semantics of Tabular Web Data

Braunschweig, Katrin 26 October 2015 (has links) (PDF)
The Web provides a platform for people to share their data, leading to an abundance of accessible information. In recent years, significant research effort has been directed especially at tables on the Web, which form a rich resource for factual and relational data. Applications such as fact search and knowledge base construction benefit from this data, as it is often less ambiguous than unstructured text. However, many traditional information extraction and retrieval techniques are not well suited for Web tables, as they generally do not consider the role of the table structure in reflecting the semantics of the content. Tables provide a compact representation of similarly structured data. Yet, on the Web, tables are very heterogeneous, often with ambiguous semantics and inconsistencies in the quality of the data. Consequently, recognizing the structure and inferring the semantics of these tables is a challenging task that requires a designated table recovery and understanding process. In the literature, many important contributions have been made to implement such a table understanding process that specifically targets Web tables, addressing tasks such as table detection or header recovery. However, the precision and coverage of the data extracted from Web tables is often still quite limited. Due to the complexity of Web table understanding, many techniques developed so far make simplifying assumptions about the table layout or content to limit the amount of contributing factors that must be considered. Thanks to these assumptions, many sub-tasks become manageable. However, the resulting algorithms and techniques often have a limited scope, leading to imprecise or inaccurate results when applied to tables that do not conform to these assumptions. In this thesis, our objective is to extend the Web table understanding process with techniques that enable some of these assumptions to be relaxed, thus improving the scope and accuracy. We have conducted a comprehensive analysis of tables available on the Web to examine the characteristic features of these tables, but also identify unique challenges that arise from these characteristics in the table understanding process. To extend the scope of the table understanding process, we introduce extensions to the sub-tasks of table classification and conceptualization. First, we review various table layouts and evaluate alternative approaches to incorporate layout classification into the process. Instead of assuming a single, uniform layout across all tables, recognizing different table layouts enables a wide range of tables to be analyzed in a more accurate and systematic fashion. In addition to the layout, we also consider the conceptual level. To relax the single concept assumption, which expects all attributes in a table to describe the same semantic concept, we propose a semantic normalization approach. By decomposing multi-concept tables into several single-concept tables, we further extend the range of Web tables that can be processed correctly, enabling existing techniques to be applied without significant changes. Furthermore, we address the quality of data extracted from Web tables, by studying the role of context information. Supplementary information from the context is often required to correctly understand the table content, however, the verbosity of the surrounding text can also mislead any table relevance decisions. We first propose a selection algorithm to evaluate the relevance of context information with respect to the table content in order to reduce the noise. Then, we introduce a set of extraction techniques to recover attribute-specific information from the relevant context in order to provide a richer description of the table content. With the extensions proposed in this thesis, we increase the scope and accuracy of Web table understanding, leading to a better utilization of the information contained in tables on the Web.
2

Entwurf und Modellierung einer universellen Telearbeitsumgebung auf Basis einer serviceorientierten Architektur / Conception and Modeling of a universal Teleworking Environment based on a Service-Oriented Architecture

Braun, Iris 25 October 2005 (has links) (PDF)
Teleworking is the key to a more flexible design of working time and places of work. To reach the flexibility for working anywhere and anytime a virtual working environment is needed which is reached from any place having a browser and internet access, at home, on the road or in the office. The goal of our activities is to develop a set of technologies fitting in the web architecture in order to bring teleworking applications to their full potential. Our new concept is to combine different web services in a new integrated man-machine environment that enables access to all necessary services. So it will be easier for the teleworker to handle the different applications and techniques. The teleworking portal provides them access to various resources: office applications, multimedia objects and documents, communication tools such as email and conferences, collaboration and group work systems or educational software and training tools. In order to promote interoperability and extensibility among these applications, as well as to allow them to be combined to perform more complex operations, a standard reference architecture for such services is needed. Consequently our approach is based on the Service Oriented Architecture (SOA) and the web service technology. / Telearbeit ist der Schlüssel zu einer flexibleren Arbeitsplatz- und Arbeitszeitgestaltung und eröffnet vielfältige Möglichkeiten und ökonomische Potentiale. Nach zahlreichen Kontroversen über die Vor- und Nachteile haben vor allem die Entwicklung kostengünstiger Informations- und Kommunikationstechniken, aber auch der Handlungsdruck einer zunehmend globalisierten Wirtschaft das Thema Telearbeit in den letzten Jahren neu belebt. Im Rahmen vorangegangener Projekte wurden vielfältige Forschungen zum Thema Telearbeit durchgeführt. Bei der bisherigen Umsetzung von Telearbeit in der Praxis ergaben sich vor allem Probleme im Umgang mit den verschiedenen Arbeitsumgebungen im Büro und am Telearbeitsplatz und dem Abgleich der Arbeitsstände und -ergebnisse. Ziel der Arbeit ist die prototypische Entwicklung einer webbasierten, flexiblen und modular aufgebauten Arbeitsumgebung, die eine effektive Anpassung an die Arbeitsweise des jeweiligen Telearbeiters und Unternehmens ermöglicht. Dabei wurde neben der Definition und Anforderungsanalyse von Telearbeit ein Architekturmodell für eine integrierte Arbeitsumgebung entworfen. Durch die umgesetzte Bausteinarchitektur wird eine flexible Anpassung der Umgebung an die Bedürfnisse der Telearbeiter und der Unternehmen erreicht. Weiterhin werden im Rahmen der Arbeit existierende Ansätze zur Unterstützung von Telearbeit analysiert und klassifiziert, um die eigene Arbeit abzugrenzen. Zur praktischen Umsetzung des Konzeptes wurden vorhandene internetbasierte Protokolle auf ihre Nutzbarkeit für Telearbeitsumgebungen untersucht. Als sehr gut geeignete und innovative Technologien erwiesen sich die Web Services. Deshalb werden die Basisprotokolle und grundlegenden Technologien für Web-Service-Lösungen im Rahmen der Arbeit spezifiziert und auf ihre Nutzbarkeit im Telearbeitskontext untersucht. Abschließend erfolgte eine prototypische Umsetzung der vorgeschlagenen Lösung und eine Validierung in verschiedenen Anwendungsszenarien, um die Praxistauglichkeit des Konzeptes nachweisen zu können.
3

A framework for Automatic Web Service Composition based on service dependency analysis

Omer, Abrehet Mohammed 11 July 2011 (has links) (PDF)
The practice of composing web services has received an increasing interest with the emerging application development architecture called Service Oriented Architecture (SOA). A web service composition can be done either manually or (semi-) automatically. Doing composition (semi-) automatically minimizes runtime problems that arise due to dynamic nature of runtime environments. However, the implementation of (semi-) automatic composition demands for the automation of a process model or a composition plan generation process. In addition, creating a composite service or applications from component services, that are developed and meant to work independently, causes unavoidable dependencies among the services involved. Consequently, in a composite service development, understanding, analyzing and tracking of such dependencies becomes important. This thesis views the process model generation sub-task of a service composition as a service dependency identifification and analysis problem. In this thesis, we propose a dependency based automatic process model generation methods. For this purpose, the following issues are explored. First, a top layer architecture with a composition engine is developed. The architecture gives a complete picture of dependency based automatic service composition. Second, the process model generation sub-task is formulated as a service dependency identification and analysis problem. Third, a two-stepped method for automatic process model generation, given a set of candidate web service descriptions, is proposed. The first step of the proposed approach deals with the identifification of potential direct and indirect dependencies between abstract services. The direct dependency extraction is done by assuming a semantic I/O matching of service parameters. The extraction of indirect dependency from direct dependency is done using a recursive algorithm derived from the transitive closure property. Alternatively the Warshall algorithm is used. The second step of the proposed approach deals with analysis of dependency information and generation of process model (PM) automatically. To execute this step, we propose two approaches: matrix based and graph based approaches. The matrix based approach utilizes both direct and indirect dependencies. This approach represents dependencies using matrix and takes advantages of a sorting algorithm. The matrix representation facilitates a simplistic mathematical dependency analysis for generating important indicators during automatic process model creation. The process model is generated using a sorting algorithm that uses the analysis result obtained from the dependency matrix as sorting criterion. The graph based approach uses only direct dependency among candidate services. As its name indicates, in this approach the extracted I/O dependencies are represented using a directed graph. A modifified topological sorting algorithm is used for generating a process model that shows the execution order of candidate services. Both of the proposed approaches (matrix and graph based approaches) recognize the existence of cyclic dependencies and provide ways of dealing with them. The resulting process model or composition plan from both approaches has a sequential, concurrent and loop control flows. Finally, the performance of the proposed approaches is studied theoretically as well as experimentally. For the experimental validation and evaluation purpose, the approaches are implemented in a prototype that facilitates the validation and evaluation of the approaches at a larger scale. An extensive experimental performance evaluation is done fifirst on each proposed approach. The two approaches are then compared and their pros and cons under difffferent scenarios are assessed.
4

Visualisierung von Service-Frontends in einem Werkzeug zur präsentationsorientierten Komposition annotierter Dienste / Graphical Representation of Service-Frontends in a Tool for presentation-oriented Composition of annotated Services.

Dannecker, Lars 11 January 2010 (has links) (PDF)
Das Ziel des ServFace Projektes ist es Endnutzern ohne umfangreiche IT-Kenntnisse das einfache Erstellen von servicebasierten Anwendungen zu ermöglichen. Dazu wird ein Kompositions- werkzeug mit dem Namen “ServFace Builder“ verwendet. Das Werkzeug erlaubt es Endnutzern, interaktive Anwendungen durch die Komposition von Service-Operationen zu erstellen. Dafür ist eine grafische Repräsentation der Service-Operationen durch UI-Fragmente notwendig. Die UI-Fragmente werden im ServFace-Umfeld als Frontends bezeichnet. In der vorliegenden Arbeit wird ein Konzept zur automatischen Visualisierung dieser Frontends vorgestellt. Um das Ergebnis der Visualisierung zu verbessern, nutzt der Visualisierungsprozess neben der Service-Beschreibung weitere Informationen in Form von Annotationen und Gestaltungsempfehlungen. Konkret werden die folgenden Aspekte in dieser Arbeit beschrieben: • Visualisierung von Frontends zur Repräsentation von Service-Operationen auf Basis von Service-Beschreibungen, Annotationen, Plattformspezifikationen und Gestaltungsempfehlungen unter der Maßgabe der Gebrauchstauglichkeit und Nutzbarkeit. • Integration der Frontends in die jeweils aktuelle Instanzen des gegebenen Anwendungsmodells. • Technische Umsetzung und Evaluation der entwickelten Konzepte / The aim of the ServFace Project is to enable users with limited IT skills to easily create service-based applications. In order to do so, a tool called "ServFace Builder" has been developed. This tool allows users to build a composite application by combining several service operations. An important part of the ServFace Builder is the graphical representation of those service operations through user interfaces. This thesis describes an approach to automatically generate user interfaces for service operations. To enhance the graphical representation, the user interface generation process of the ServFace Builder comprises annotations and design recommendations next to the common service descriptions to enhance the result of the generation process. This thesis discusses: • Graphical representation of service operations on the basis of service descriptions, annotations, plattform specifications and design recommendations. • Integration of the graphical representation into the actual instance of the given application model. • Implementation and evaluation of the presented concepts.
5

Orchestrierung von Geo Web Services

Kallbach, Maria 10 February 2010 (has links) (PDF)
Das Ziel der Diplomarbeit bestand darin eine Testumgebung zur Orchestrierung von Geo Web Services aufzubauen. Dabei diente die Diplomarbeit "Orchestrierung von Web Services" von Jäger/Weidenhagen als Grundlage. Um ein Verständnis für dieses Gebiet zu bekommen, werden zu Beginn die Grundlagen betrachtet. Rechtliche Aspekte zum Thema Orchestrierung werden angegeben, um die Wichtigkeit des Themas zu unterstreichen. Eingängige Standards wie SOAP und WSDL werden in ihren Kernpunkten erläutert. Insbesondere bei SOAP wird näher darauf eingegangen. Neben den OWS besteht auch die Möglichkeit Geo-Datenbanken in Diensteketten einfließen zu lassen. Dafür werden exemplarisch Dienste aufgesetzt, die dies ermöglichen. Weiterhin werden die Benutzerschnittstellen von Web Services (und auch Diensteketten) untersucht. Die Option eines Clients mittels Scriptsprachen wird beschrieben. Dabei erwies sich PHP am geeignetsten. Auf diese Weise kann für jede Dienstekette eine dynamische Webseite gestaltet werden, die eine graphische Schnittstelle für den Nutzer bietet.
6

Leitfaden für die barrierefreie Gestaltung von Web-Angeboten in Bibliotheken

Schwartz, Eva-Maria, Rößner, Susanne 18 March 2010 (has links) (PDF)
Das vorliegende Handbuch gibt Bibliotheksangestellten, die sich mit der Aufbereitung und Einstellung von Webinhalten befassen, einen Einblick in die Problematik „Barrierefreiheit“. Dabei wird im Speziellen auf die Belange von Bibliotheken eingegangen und in diesem Zuge Richtlinien und Gesetze vorgestellt, die eine wichtige Rolle spielen. Anschließend wird auf die Barrieren eingegangen, die im Internet entstehen können. Zudem wird gezeigt, wie man diese Barrieren verhindert oder beseitigt. Das Handbuch gibt praktische Tipps, in dem es Hilfsmittel und Quellcode-Beispiel vorstellt, die zur barrierefreien Gestaltung eingesetzt werden können.
7

Kontextsensitive Informationsvisualisierung mit kompositen Rich Internet Applications für Endnutzer

Voigt, Martin 14 August 2015 (has links) (PDF)
Das stetig wachsende Datenaufkommen - die weltweite Datenmenge verdoppelt sich alle zwei Jahre - ist eine wesentliche Herausforderung für den Menschen in allen Bereichen des beruflichen und privaten Alltags. Um trotzdem relevante Informationen zu identifizieren und auch zu verstehen, nehmen Techniken und Anwendungen zur InfoVis einen immer größeren Stellenwert ein. Leider hat sich die Vision der "InfoVis for and by the masses" aufgrund des notwendigen Daten-, Visualisierungs- und Programmierwissens noch nicht durchgesetzt. Zudem sind heutige InfoVis-Softwareanbieter mit dem Problem konfrontiert, verschiedenste Kontexte, wie Nutzergruppen oder Hard- und Softwareplattformen, unterstützen zu müssen. Ein möglicher Lösungsansatz für dieses Problem ist das Paradigma der kompositen Webanwendungen. Auf deren Basis können Daten und UI-Widgets je nach Anwendungsfall teils automatisch kombiniert werden. Dies erhöht die Wiederverwendbarkeit und spart Zeit sowie Entwicklungskosten. Unter Zuhilfenahme von (semantischen) Modellen ist es zudem möglich, eine komposite RIA an die vorliegende Situation zu adaptieren. Um dem Endanwender Zugang zu den kompositen RIA zu verschaffen, mangelt es jedoch an einem Integrationsprozess, der den speziellen Anforderungen der InfoVis gerecht wird. Diese Dissertation stellt deshalb neue Konzepte für einen ganzheitlichen Semantik-gestützten InfoVis-Prozess vor, der bspw. die Endnutzer-gerechte Filterung großer Datensätze, die kontextsensitive Auswahl von InfoVis-Komponenten, die Nutzerunterstützung bei der Exploration und Interpretation der Daten sowie die Gewinnung und Wiederverwendung von Visualisierungswissen adressiert. Zur Unterstützung des InfoVis-Prozesses werden weiterhin Konzepte für eine formale Wissensbasis mit Domänenwissen vorgeschlagen. Die modulare, mit W3C-Standards prototypisch realisierte Visualisierungsontologie definiert u.a. Konzepte und Relationen zu Daten, graphischen Vokabular, menschlicher Aktivität sowie veränderliches Faktenwissen. Ein weiterer, wesentlicher Beitrag der Arbeit liegt in der Architekturkonzeption für modellbasierte, komposite RIA für die InfoVis-Domäne, womit ein neues Anwendungsfeld des Software-Paradigmas erschlossen wird. Damit steht nun erstmals für eine komposite, webbasierte InfoVis-Lösung ein ganzheitliches Architekturkonzept zur Verfügung, das die Ausführbarkeit der Anwendungen in der heute existierenden, heterogenen Landschaft der (mobilen) Endgeräte gewährleisten kann. Durch die Implementierung entscheidender Architekturkonzepte sowie einer beispielhaften InfoVis-Anwendung für semantische Daten wurde die Tragfähigkeit der geschaffenen Konzepte nachgewiesen. Anhand einer Vielzahl von formativen sowie einer summativen Nutzerstudien konnte validiert werden, dass sich aus den neuen Konzepten Vorteile für den Endanwender bei der Erstellung einer InfoVis ergeben.
8

Modellgetriebene Entwicklung adaptiver, komponentenbasierter Mashup-Anwendungen / Model-Driven Development of Adaptive Component-Based Mashup Applications

Pietschmann, Stefan 02 January 2013 (has links) (PDF)
Mit dem Wandel des Internets zu einer universellen Softwareplattform sind die Möglichkeiten und Fähigkeiten von Webanwendungen zwar rasant gestiegen. Gleichzeitig gestaltet sich ihre Entwicklung jedoch zunehmend aufwändig und komplex, was dem Wunsch nach immer kürzeren Entwicklungszyklen für möglichst situative, bedarfsgerechte Lösungen entgegensteht. Bestehende Ansätze aus Forschung und Technik, insbesondere im Umfeld der serviceorientierten Architekturen und Mashups, werden diesen Problemen bislang nicht ausreichend gerecht. Deshalb werden in dieser Dissertation neue Konzepte für die modellgetriebene Entwicklung und Bereitstellung von Webanwendungen vorgestellt. Die zugrunde liegende Idee besteht darin, das Paradigma der Serviceorientierung auf die Präsentationsebene zu erweitern. So sollen erstmals – neben Daten- und Geschäftslogik – auch Teile der Anwendungsoberfläche in Form wiederverwendbarer Komponenten über Dienste bereitgestellt werden. Anwendungen sollen somit über alle Anwendungsebenen hinweg nach einheitlichen Prinzipien „komponiert“ werden können. Den ersten Schwerpunkt der Arbeit bilden die entsprechenden universellen Modellierungskonzepte für Komponenten und Kompositionen. Sie erlauben u. a. die plattformunabhängige Beschreibung von Anwendungen als Komposition der o. g. Komponenten. Durch die Abstraktion und entsprechende Autorenwerkzeuge wird die Entwicklung so auch für Domänenexperten bzw. Nicht-Programmierer möglich. Der zweite Schwerpunkt liegt auf dem kontextadaptiven Integrationsprozess von Komponenten und der zugehörigen, serviceorientierten Referenzarchitektur. Sie ermöglichen die dynamische Suche, Bindung und Konfiguration von Komponenten, d. h. auf Basis der o. g. Abstraktionen können genau die Anwendungskomponenten geladen und ausgeführt werden, die für den vorliegenden Nutzer-, Nutzungs- und Endgerätekontext am geeignetsten sind. Der dritte Schwerpunkt adressiert die Kontextadaptivität der kompositen Anwendungen in Form von Konzepten zur aspektorientierten Definition von adaptivem Verhalten im Modell und dessen Umsetzung zur Laufzeit. In Abhängigkeit von Kontextänderungen können so Rekonfigurationen von Komponenten, ihr Austausch oder Veränderungen an der Komposition, z.B. am Layout oder dem Datenfluss, automatisch durchgesetzt werden. Alle vorgestellten Konzepte wurden durch prototypische Implementierungen praktisch untermauert. Anhand diverser Anwendungsbeispiele konnten ihre Validität und Praktikabilität – von der Modellierung im Autorenwerkzeug bis zur Ausführung und dynamischen Anpassung – nachgewiesen werden. Die vorliegende Dissertation liefert folglich eine Antwort auf die Frage, wie zukünftige Web- bzw. Mashup-Anwendungen zeit- und kostengünstig entwickelt sowie zuverlässig und performant ausgeführt werden können. Die geschaffenen Konzepte bilden gleichermaßen die Grundlage für eine Vielzahl an Folgearbeiten.
9

Linklets - Formal Function Description and Permission Model / Linklets - formale Funktionsbeschreibung und Rechtemodell

Köhler, Marcus 06 February 2012 (has links) (PDF)
Linklets are location-independent web services, which consume and produce Linked Data resources. These resources form a web of data - the semantic web - that is an abstraction of the web 2.0. However, enterprises are reluctant to provide valuable Linked Data resources due to missing financial stimuli. Operations are not representable in the semantic web. Linklets aim to solve both problems. Previous work developed a prototype. The goal of this thesis is to enhance it by a component model, a formal description and a permission model. A business model has to be developed. This thesis follows a bottom-up approach. The formalization of the Linklet concept creates a foundation. Then, an improved architecture and its reference implementation are studied. It is evaluated by tests, show cases and economic considerations. The resulting component system is based on web-service component systems, while a sandbox concept is the core of the permission model. The formal description shows limits of OWLs open world assumption. A platform leader strategy is the foundation for the business model. In conclusion, the advantages of the Linklet concept provide a way to enhance and monetize the value of the semantic web. Further research is required; the practical use has to be considered.

Page generated in 0.4674 seconds