• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 375
  • 218
  • 76
  • 53
  • 24
  • 20
  • 20
  • 18
  • 18
  • 16
  • 8
  • 7
  • 7
  • 6
  • 6
  • Tagged with
  • 915
  • 915
  • 269
  • 205
  • 192
  • 160
  • 156
  • 126
  • 112
  • 109
  • 107
  • 107
  • 106
  • 106
  • 104
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Developing a Semantic Web Crawler to Locate OWL Documents

Koron, Ronald Dean 18 September 2012 (has links)
No description available.
162

NEAR NEIGHBOR EXPLORATIONS FOR KEYWORD-BASED SEMANTIC SEARCHES USING RDF SUMMARY GRAPH

Ayvaz, Serkan 23 November 2015 (has links)
No description available.
163

Framework for Semantic Integration and Scalable Processing of City Traffic Events

Marupudi, Surendra Brahma 01 September 2016 (has links)
No description available.
164

Efficient Delivery of Web Services

Ouzzani, Mourad 05 May 2004 (has links)
This dissertation addresses issues for the efficient access to Web databases and services. We propose a distributed ontology for a meaningful organization of and efficient access to Web databases. Next, we dedicate most of our work on presenting a comprehensive query infrastructure for the emerging concept of Web services. The core of this query infrastructure is to enable the efficient delivery of Web services based on the concept of Quality of Web Service. Treating Web services as first class objects is a fundamental step towards achieving the envisioned Semantic Web. Semantics-aware processing of information requires intensive use of Web services. In our research, we propose a new query model where queries are resolved by combining Web service invocations. To efficiently deploy such scheme, we propose an optimization strategy based on aggregating Quality of Web service (QoWS) of different Web services. QoWS is adjusted through a dynamic rating scheme and multilevel matching. Web service rating provides an assessment of their behavior. The multilevel matching allows a larger solution space by enabling similar and partial answers. / Ph. D.
165

Enforcing Trade Secrets among Competitors on the Semantic Web

Malik, Choudhry Muhammad Zaki 25 August 2004 (has links)
In this thesis, we present a novel approach for the preservation of trade secrets in a Business-to-Business (B2B) environment that involves trade among competitors. The Web provides a low cost medium for B2B collaborations. Information exchange may take place during such a collaboration. The exchanged information may be of a sensitive nature, forming a business trade secret. The open nature of the Web calls for techniques to prevent the disclosure of trade secrets. The emerging Semantic Web is expected to make the challenge more acute in terms of trade secret protection due to the automation of B2B interactions. In this thesis, the different businesses are represented by Web services on the envisioned Semantic Web. We propose a Peer-to-Peer (P2P) approach for preserving trade secrets in B2B interactions. We introduce a set of techniques based on data perturbation for preserving data privacy. The techniques presented in our thesis are implemented in WebBIS, a prototype for accessing e-business Web services. Finally, we conduct an extensive performance study (analytical and experimental) of the proposed techniques. / Master of Science
166

Statistical Extraction of Multilingual Natural Language Patterns for RDF Predicates: Algorithms and Applications

Gerber, Daniel 29 August 2016 (has links) (PDF)
The Data Web has undergone a tremendous growth period. It currently consists of more then 3300 publicly available knowledge bases describing millions of resources from various domains, such as life sciences, government or geography, with over 89 billion facts. In the same way, the Document Web grew to the state where approximately 4.55 billion websites exist, 300 million photos are uploaded on Facebook as well as 3.5 billion Google searches are performed on average every day. However, there is a gap between the Document Web and the Data Web, since for example knowledge bases available on the Data Web are most commonly extracted from structured or semi-structured sources, but the majority of information available on the Web is contained in unstructured sources such as news articles, blog post, photos, forum discussions, etc. As a result, data on the Data Web not only misses a significant fragment of information but also suffers from a lack of actuality since typical extraction methods are time-consuming and can only be carried out periodically. Furthermore, provenance information is rarely taken into consideration and therefore gets lost in the transformation process. In addition, users are accustomed to entering keyword queries to satisfy their information needs. With the availability of machine-readable knowledge bases, lay users could be empowered to issue more specific questions and get more precise answers. In this thesis, we address the problem of Relation Extraction, one of the key challenges pertaining to closing the gap between the Document Web and the Data Web by four means. First, we present a distant supervision approach that allows finding multilingual natural language representations of formal relations already contained in the Data Web. We use these natural language representations to find sentences on the Document Web that contain unseen instances of this relation between two entities. Second, we address the problem of data actuality by presenting a real-time data stream RDF extraction framework and utilize this framework to extract RDF from RSS news feeds. Third, we present a novel fact validation algorithm, based on natural language representations, able to not only verify or falsify a given triple, but also to find trustworthy sources for it on the Web and estimating a time scope in which the triple holds true. The features used by this algorithm to determine if a website is indeed trustworthy are used as provenance information and therewith help to create metadata for facts in the Data Web. Finally, we present a question answering system that uses the natural language representations to map natural language question to formal SPARQL queries, allowing lay users to make use of the large amounts of data available on the Data Web to satisfy their information need.
167

Semantic Processes For Constructing Composite Web Services

Kardas, Karani 01 September 2007 (has links) (PDF)
In Web service composition, service discovery and combining suitable services through determination of interoperability among different services are important operations. Utilizing semantics improves the quality and facilitates automation of these operations. There are several previous approaches for semantic service discovery and service matching. In this work, we exploit and extend these semantic approaches in order to make Web service composition process more facilitated, less error prone and more automated. This work includes a service discovery and service interoperability checking technique which extends the previous semantic matching approaches. In addition to this, as a guidance system for the user, a new semantic domain model is proposed that captures semantic relations between concepts in various ontologies.
168

Die Regensburger Verbundklassifikation (RVK) – „ein weites Feld“

Werr, Naoka 28 January 2011 (has links) (PDF)
Schlagwörter wie „information overload“, „digital natives“ oder „digital immigrants“ prägen die heutige Informations- und Wissensgesellschaft. Zahlreiche wissenschaftliche Untersuchungen belegen zudem nachdrücklich, dass die technische Entwicklung in den nächsten Jahren noch rasanter fortschreitet als man es jemals vermuten durfte. Internet- Kommunikationsangeboten kommt bereits jetzt eine außergewöhnliche Bedeutung zu - mit steigender Tendenz. Außerdem werden Kommunikationsservices wie Web 2.0-Anwendungen als ein zunehmend wichtiger Faktor von Internetnutzung unterstrichen und der aktuelle Trend zur persönlichen Vernetzung über das Internet stets hervorgehoben. Die Bedeutung der Kernnutzungen des Internets als Inhaltsquelle und Kommunikationsform wird demnach auch weiterhin zunehmen. Diesem Trend müssen sich auch Klassifikationssysteme stellen. Die RVK hat mit dem im Oktober 2009 lancierten Web-Portal einen ersten Schritt in Richtung Vernetzung getan. Die bisher auf verschiedenen Internetseiten disparat untergebrachten Informationen zur RVK sowie die Datenbanken zur RVK sind nunmehr unter einer Oberfläche vereint, miteinander verknüpft und mit Elementen sozialer Software (RVK-Wiki zur größeren Transparenz bei Abstimmungsvorgängen) angereichert. Im Kontext des derzeit ebenfalls als beliebtes Schlagwort thematisierten Semantic Web ist das Portal der RVK ein Paradigmenwechsel in der langen Geschichte der RVK: Das gesamte Wissen zur RVK wird entsprechend seiner Bedeutung konzeptionell verbunden und bereits weitgehend maschinenlesbar (beispielsweise bezogen auf die Suchfunktion in der Datenbank RVK-Online) offeriert. Wissensmanagement sowie die Verbesserung der Qualität der umfangreichen Informationen zur RVK auf semantischer Ebene sind sehr verbessert worden, verbunden mit dem RVK-Wiki könnte man gar von einem ersten Impuls in Richtung Web 3.0 für die RVK sprechen. Auch die hierarchische Struktur der RVK trägt wesentlich zum Semantic Web bei, da in einer Klassifikation gerade hierarchische Strukturen zur „Ordnung“ des im Überfluss vorhandenen implizierten Wissens beitragen. Wesentlich ist demnach die Definition der Relationen im Web (und somit der entsprechenden Ontologien und Entitäten), um der Quantität der Angebote im World Wide Web auch entsprechend qualitativ hochwertige Services mit bibliothekarischem Mehrwert entgegenzusetzen. Für das Datenmodell des Semantic Web ist somit die Bereitstellung von nachhaltigen Normdaten wie es für die RVK ja angedacht - respektive fast umgesetzt ist – notwendig.
169

Linked Open Projects

Pfeffer, Magnus, Eckert, Kai 28 January 2011 (has links) (PDF)
Semantic Web und Linked Data sind in aller Munde. Nach fast einem Jahrzehnt der Entwicklung der Technologien und Erforschung der Möglichkeiten des Semantic Webs rücken nun die Daten in den Mittelpunk, denn ohne diese wäre das Semantic Web nicht mehr als ein theoretisches Konstrukt. Fast wie das World Wide Web ohne Websites. Bibliotheken besitzen mit Normdaten (PND, SWD) und Titelaufnahmen eine Fülle Daten, die sich zur Befüllung des Semantic Web eignen und teilweise bereits für das Semantic Web aufbereitet und zur Nutzung freigegeben wurden. Die Universitätsbibliothek Mannheim hat sich in zwei verschiedenen Projekten mit der Nutzung solcher Daten befasst – allerdings standen diese zu diesem Zeitpunkt noch nicht als Linked Data zur Verfügung. In einem Projekt ging es um die automatische Erschließung von Publikationen auf der Basis von Abstracts, im anderen Projekt um die automatische Klassifikation von Publikationen auf der Basis von Titeldaten. Im Rahmen dieses Beitrags stellen wir die Ergebnisse der Projekte kurz vor, möchten aber im Schwerpunkt auf einen Nebenaspekt eingehen, der sich erst im Laufe dieser Projekte herauskristallisiert hat: Wie kann man die gewonnenen Ergebnisse dauerhaft und sinnvoll zur Nachnutzung durch Dritte präsentieren? Soviel vorweg: Beide Verfahren können und wollen einen Bibliothekar nicht ersetzen. Die Einsatzmöglichkeiten der generierten Daten sind vielfältig. Konkrete Einsätze, zum Beispiel das Einspielen in einen Verbundkatalog, sind aber aufgrund der Qualität und mangelnden Kontrolle der Daten umstritten. Die Bereitstellung dieser Daten als Linked Data im Semantic Web ist da eine naheliegende Lösung – jeder, der die Ergebnisse nachnutzen möchte, kann das tun, ohne dass ein bestehender Datenbestand damit kompromittiert werden könnte. Diese Herangehensweise wirft aber neue Fragen auf, nicht zuletzt auch nach der Identifizierbarkeit der Ursprungsdaten über URIs, wenn diese (noch) nicht als Linked Data zur Verfügung stehen. Daneben erfordert die Bereitstellung von Ergebnisdaten aber auch weitere Maßnahmen, die über die gängige Praxis von Linked Data hinaus gehen: Die Bereitstellung von Zusatzinformationen, die die Quelle und das Zustandekommen dieser Daten näher beschreiben (Provenienzinformationen), aber auch weitere Informationen, die über das zugrunde liegende Metadatenschema meist hinausgehen, wie Konfidenzwerte im Falle eines automatischen Verfahrens der Datenerzeugung. Dazu präsentieren wir Ansätze auf Basis von RDF Reification und Named Graphs und schildern die aktuellen Entwicklungen auf diesem Gebiet, wie sie zum Beispiel in der Provenance Incubator Group des W3C und in Arbeitsgruppen der Dublin Core Metadaten-Initiative diskutiert werden.
170

Exploiting Semantics and Syntax for Service Specification and Signature Matching: The S5 Web Service Matchmaker

Mehdi, Syed Farrukh 25 November 2011 (has links)
In this thesis, we present a hybrid semantic web service discovery framework that exploits both the signatures and specifications of a web service, whilst adopting logical and non-logical service matching methods. For signature level service matching, we have developed two techniques: (i) logical similarity measures applied to the services’ input/output concepts; and (b) non-logical matching based on a Structure Preserving Semantic Matching algorithm. For specification level service matching, we have applied a unique short sentence matching approach on the textual-description of a web service. We evaluated the performance of our S5 Web Service Matchmaker using the OWLS-TC dataset, and furthermore compared its performance with the OWLS-MX discovery model. Our results indicate that S5 Web Service Matchmaker offers an improved web service matching performance with a significant increase in recall and subtle improvements in precision. / Web services are independent software systems designed to offer machine-to-machine interactions over the WWW to achieve well-described operations. The description of a web service entails (a) a syntactic component detailing the service’s operations and data structures in terms of the Web Services Description Language (WSDL), and (b) a semantic component that offers a semantic description, in terms of an ontology, of the services’ data and operations. Typically, service providers expose their services to the public by providing brief descriptions of the service’s operations; the challenge is to discover the right service based on rather sparse service descriptions in response to a specific service request. In this thesis, we present a hybrid semantic web service discovery framework that offer semantic web service discovery at both the signature and specification levels of a web service, whilst exploiting logical and non-logical service matching methods. For signature level service matching, we have developed two techniques: (i) logical similarity measures applied to the services’ input/output concepts; and (b) non-logical matching based on a Structure Preserving Semantic Matching algorithm. For specification level service matching, we have applied a unique short sentence matching approach on the textual-description of a web service. The cumulative similarly measures determine the overall similarity of a services’ description with the service request. We evaluated the performance of our S5 Web Service Matchmaker using the OWLS-TC dataset, and furthermore compared its performance with the OWLS-MX discovery model. Our results indicate that S5 Web Service Matchmaker offers an improved web service matching performance with a significant increase in recall and subtle improvements in precision.

Page generated in 0.0552 seconds