• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 4
  • 1
  • 1
  • Tagged with
  • 14
  • 9
  • 7
  • 6
  • 6
  • 6
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Profilerhebung bei Kundendialogen Auflösung von Mehrdeutigkeiten im natürlichsprachlichen Dialog mit dem Kunden

Eiseler, Thorsten January 2005 (has links)
Zugl.: München, Techn. Univ., Diplomarbeit, 2005
2

Semantikbasierter Transfer und lexikalische Desambiguierung in der maschinellen Übersetzung

Eckle, Judith. January 1994 (has links)
Stuttgart, Univ., Fakultät Philosophie, Studienarb., 1994.
3

Semantic support in multilingual text retrieval

De Luca, Ernesto William January 2008 (has links)
Zugl.: Magdeburg, Univ., Diss., 2008
4

Representation and stochastic resolution of ambiguity in constraint-based parsing Darstellung und stochastische Auflösung von Ambiguität in constraint-basiertem Parsing /

Eisele, Andreas. January 1999 (has links)
Stuttgart, Univ., Diss., 1999.
5

Vererbungsalgorithmen von semantischen Eigenschaften auf Assoziationsgraphen und deren Nutzung zur Klassifikation von natürlichsprachlichen Daten

Bordag, Stefan 20 October 2017 (has links)
Ziel dieser Arbeit ist es, Kollokationen auf Satzbasis aus dem Wortschatz-Lexikon Leipzig als Datenbasis nehmend, ein Verfahren zu entwickeln, welches die den Satzkollokationen immanenten Beziehungen zwischen den Wörtern erkennen und handhaben kann. Weiterhin ist es Ziel, diese Beziehungen für wortbedeutungsorientierte Klassifikationsverfahren zu erschliessen und deren unmittelbare Anwendung zu demonstrieren, indem Sachgebietszuweisungen über diese Beziehungen weitervererbt werden können. Es wird gezeigt, dass Cluster in den Satzkollokationen mit einer Approximation für die maximale Clustersuche mit rechnerisch geringem Aufwand gefunden werden können, wenn diese als ein Graph mit der seit kurzem untersuchten small-world Eigenschaft betrachtet werden. Es wird daraufhin ein Disambiguierungsverfahren konstruiert, welches Beziehungen zwischen einem Wort und seinen unmittelbar angrenzenden Clustern berechnet, wobei die verschiedenen Cluster den diversen Gebrauchskontexten und damit auch unter anderem den Bedeutungen des Wortes entsprechen. Dieses Disambiguierungsverfahren dient dann als Grundlage für den Entwurf eines Sachgebietsklassifizierungsverfahrens, welches zu einer inhaltlich homogenen Wortgruppe, zum Beispiel einem Sachgebiet, weitere passende Wörter finden kann. Die vorgeschlagenen Verfahren wurden prototypisch implementiert und Beispiele werden auch im Hinblick auf eine Praxisanwendung diskutiert.
6

Wortbedeutungsdisambiguierung mittels sprachunabhängiger, kookkurrenzbasierter Algorithmen

Reuter, Sven 19 February 2018 (has links)
Der 'Disambiguierer' ist ein Projekt, das für die Universität Leipzig (Abteilung Automatische Sprachverarbeitung am Institut für Informatik) entstand. Einsatzzweck der Software ist das Identifizieren und Ersetzen von Mehrdeutigkeiten in Sätzen beliebiger Sprache. Die Software wurde in Java implementiert und basiert auf ein Verfahren von Stefan Bordag. Zu dem Thema Disambiguierung habe ich meine Bachelor-Arbeit verfasst, welche das Verfahren selbst und seine Ergebnisse beschreibt.
7

CARBON a Web application and a RESTful API for argumentation

Runge, Jakob 19 February 2018 (has links)
This thesis documents the development of Collaborative Argumentation Brought Online (CARBON). Collaborative Argumentation Brought Online (CARBON) aims to make abstract dialectical frameworks (ADFs) available via HTTP by providing a RESTful API and a JavaScript heavy application, that allows to use ADFs in a wiki context on top of that API. The thesis summarizes basic concepts of abstract argumentation using examples of Dung argumentation frameworks (AFs), bipolar argumentation frameworks (BAFs) and abstract dialectical frameworks (ADFs). The advantages of using Haskell as a programming language for server side software are demonstrated by discussing central concepts of functional programming and how these influenced the design or our solutions and simplified the creation of a RESTful API. It is described, how argumentation can be embedded in a wiki, and how a mapping between wiki articles and statements can be established to enable users to create new content while still being able to work with ADFs. To simplify the creation of acceptance conditions, a custom approach to proof standards is presented that allows to translate a bipolar argumentation framework (BAF) with proof standards into a ADF.
8

Knowledge Extraction for Hybrid Question Answering

Usbeck, Ricardo 22 May 2017 (has links) (PDF)
Since the proposal of hypertext by Tim Berners-Lee to his employer CERN on March 12, 1989 the World Wide Web has grown to more than one billion Web pages and still grows. With the later proposed Semantic Web vision,Berners-Lee et al. suggested an extension of the existing (Document) Web to allow better reuse, sharing and understanding of data. Both the Document Web and the Web of Data (which is the current implementation of the Semantic Web) grow continuously. This is a mixed blessing, as the two forms of the Web grow concurrently and most commonly contain different pieces of information. Modern information systems must thus bridge a Semantic Gap to allow a holistic and unified access to information about a particular information independent of the representation of the data. One way to bridge the gap between the two forms of the Web is the extraction of structured data, i.e., RDF, from the growing amount of unstructured and semi-structured information (e.g., tables and XML) on the Document Web. Note, that unstructured data stands for any type of textual information like news, blogs or tweets. While extracting structured data from unstructured data allows the development of powerful information system, it requires high-quality and scalable knowledge extraction frameworks to lead to useful results. The dire need for such approaches has led to the development of a multitude of annotation frameworks and tools. However, most of these approaches are not evaluated on the same datasets or using the same measures. The resulting Evaluation Gap needs to be tackled by a concise evaluation framework to foster fine-grained and uniform evaluations of annotation tools and frameworks over any knowledge bases. Moreover, with the constant growth of data and the ongoing decentralization of knowledge, intuitive ways for non-experts to access the generated data are required. Humans adapted their search behavior to current Web data by access paradigms such as keyword search so as to retrieve high-quality results. Hence, most Web users only expect Web documents in return. However, humans think and most commonly express their information needs in their natural language rather than using keyword phrases. Answering complex information needs often requires the combination of knowledge from various, differently structured data sources. Thus, we observe an Information Gap between natural-language questions and current keyword-based search paradigms, which in addition do not make use of the available structured and unstructured data sources. Question Answering (QA) systems provide an easy and efficient way to bridge this gap by allowing to query data via natural language, thus reducing (1) a possible loss of precision and (2) potential loss of time while reformulating the search intention to transform it into a machine-readable way. Furthermore, QA systems enable answering natural language queries with concise results instead of links to verbose Web documents. Additionally, they allow as well as encourage the access to and the combination of knowledge from heterogeneous knowledge bases (KBs) within one answer. Consequently, three main research gaps are considered and addressed in this work: First, addressing the Semantic Gap between the unstructured Document Web and the Semantic Gap requires the development of scalable and accurate approaches for the extraction of structured data in RDF. This research challenge is addressed by several approaches within this thesis. This thesis presents CETUS, an approach for recognizing entity types to populate RDF KBs. Furthermore, our knowledge base-agnostic disambiguation framework AGDISTIS can efficiently detect the correct URIs for a given set of named entities. Additionally, we introduce REX, a Web-scale framework for RDF extraction from semi-structured (i.e., templated) websites which makes use of the semantics of the reference knowledge based to check the extracted data. The ongoing research on closing the Semantic Gap has already yielded a large number of annotation tools and frameworks. However, these approaches are currently still hard to compare since the published evaluation results are calculated on diverse datasets and evaluated based on different measures. On the other hand, the issue of comparability of results is not to be regarded as being intrinsic to the annotation task. Indeed, it is now well established that scientists spend between 60% and 80% of their time preparing data for experiments. Data preparation being such a tedious problem in the annotation domain is mostly due to the different formats of the gold standards as well as the different data representations across reference datasets. We tackle the resulting Evaluation Gap in two ways: First, we introduce a collection of three novel datasets, dubbed N3, to leverage the possibility of optimizing NER and NED algorithms via Linked Data and to ensure a maximal interoperability to overcome the need for corpus-specific parsers. Second, we present GERBIL, an evaluation framework for semantic entity annotation. The rationale behind our framework is to provide developers, end users and researchers with easy-to-use interfaces that allow for the agile, fine-grained and uniform evaluation of annotation tools and frameworks on multiple datasets. The decentral architecture behind the Web has led to pieces of information being distributed across data sources with varying structure. Moreover, the increasing the demand for natural-language interfaces as depicted by current mobile applications requires systems to deeply understand the underlying user information need. In conclusion, the natural language interface for asking questions requires a hybrid approach to data usage, i.e., simultaneously performing a search on full-texts and semantic knowledge bases. To close the Information Gap, this thesis presents HAWK, a novel entity search approach developed for hybrid QA based on combining structured RDF and unstructured full-text data sources.
9

Extraktion geographischer Entitäten zur Suche nutzergenerierter Inhalte für Nachrichtenereignisse

Katz, Philipp 27 November 2014 (has links) (PDF)
Der Einfluss sogenannter nutzergenerierter Inhalte im Web hat in den letzten Jahren stetig zugenommen. Auf Plattformen wie Blogs, sozialen Netzwerken oder Medienportalen werden durch Anwender kontinuierlich Textnachrichten, Bilder oder Videos publiziert. Auch Inhalte, die aktuelle gesellschaftliche Ereignisse, wie beispielsweise den Euromaidan in Kiew dokumentieren, werden durch diese Plattformen verbreitet. Nutzergenerierte Inhalte bieten folglich das Potential, zusätzliche Hintergrundinformationen über Ereignisse direkt vom Ort des Geschehens zu liefern. Diese Arbeit verfolgt die Vision einer Nachrichtenplattform, die unter Verwendung von Methoden des Information Retrievals und der Informationsextraktion Nachrichtenereignisse erkennt, diese automatisiert mit relevanten nutzergenerierten Inhalten anreichert und dem Leser präsentiert. Zur Suche nutzergenerierter Inhalte kommen in dieser Arbeit maßgeblich geographische Entitäten, also Ortsbezeichnungen zum Einsatz. Für die Extraktion dieser Entitäten aus gegebenen Nachrichtendokumenten stellt die Arbeit verschiedene neue Methoden vor. Die Entitäten werden genutzt, um zielgerichtete Suchanfragen zu erzeugen. Es wird gezeigt, dass sich eine geounterstützte Suche für das Auffinden nutzergenerierter Inhalte besser eignet als eine konventionelle schlüsselwortbasierte Suche.
10

Context-aware semantic analysis of video metadata

Steinmetz, Nadine January 2013 (has links)
Im Vergleich zu einer stichwortbasierten Suche ermöglicht die semantische Suche ein präziseres und anspruchsvolleres Durchsuchen von (Web)-Dokumenten, weil durch die explizite Semantik Mehrdeutigkeiten von natürlicher Sprache vermieden und semantische Beziehungen in das Suchergebnis einbezogen werden können. Eine semantische, Entitäten-basierte Suche geht von einer Anfrage mit festgelegter Bedeutung aus und liefert nur Dokumente, die mit dieser Entität annotiert sind als Suchergebnis. Die wichtigste Voraussetzung für eine Entitäten-zentrierte Suche stellt die Annotation der Dokumente im Archiv mit Entitäten und Kategorien dar. Textuelle Informationen werden analysiert und mit den entsprechenden Entitäten und Kategorien versehen, um den Inhalt semantisch erschließen zu können. Eine manuelle Annotation erfordert Domänenwissen und ist sehr zeitaufwendig. Die semantische Annotation von Videodokumenten erfordert besondere Aufmerksamkeit, da inhaltsbasierte Metadaten von Videos aus verschiedenen Quellen stammen, verschiedene Eigenschaften und Zuverlässigkeiten besitzen und daher nicht wie Fließtext behandelt werden können. Die vorliegende Arbeit stellt einen semantischen Analyseprozess für Video-Metadaten vor. Die Eigenschaften der verschiedenen Metadatentypen werden analysiert und ein Konfidenzwert ermittelt. Dieser Wert spiegelt die Korrektheit und die wahrscheinliche Mehrdeutigkeit eines Metadatums wieder. Beginnend mit dem Metadatum mit dem höchsten Konfidenzwert wird der Analyseprozess innerhalb eines Kontexts in absteigender Reihenfolge des Konfidenzwerts durchgeführt. Die bereits analysierten Metadaten dienen als Referenzpunkt für die weiteren Analysen. So kann eine möglichst korrekte Analyse der heterogen strukturierten Daten eines Kontexts sichergestellt werden. Am Ende der Analyse eines Metadatums wird die für den Kontext relevanteste Entität aus einer Liste von Kandidaten identifiziert - das Metadatum wird disambiguiert. Hierfür wurden verschiedene Disambiguierungsalgorithmen entwickelt, die Beschreibungstexte und semantische Beziehungen der Entitätenkandidaten zum gegebenen Kontext in Betracht ziehen. Der Kontext für die Disambiguierung wird für jedes Metadatum anhand der Eigenschaften und Konfidenzwerte zusammengestellt. Der vorgestellte Analyseprozess ist an zwei Hypothesen angelehnt: Um die Analyseergebnisse verbessern zu können, sollten die Metadaten eines Kontexts in absteigender Reihenfolge ihres Konfidenzwertes verarbeitet werden und die Kontextgrenzen von Videometadaten sollten durch Segmentgrenzen definiert werden, um möglichst Kontexte mit kohärentem Inhalt zu erhalten. Durch ausführliche Evaluationen konnten die gestellten Hypothesen bestätigt werden. Der Analyseprozess wurden gegen mehrere State-of-the-Art Methoden verglichen und erzielt verbesserte Ergebnisse in Bezug auf Recall und Precision, besonders für Metadaten, die aus weniger zuverlässigen Quellen stammen. Der Analyseprozess ist Teil eines Videoanalyse-Frameworks und wurde bereits erfolgreich in verschiedenen Projekten eingesetzt. / The Semantic Web provides information contained in the World Wide Web as machine-readable facts. In comparison to a keyword-based inquiry, semantic search enables a more sophisticated exploration of web documents. By clarifying the meaning behind entities, search results are more precise and the semantics simultaneously enable an exploration of semantic relationships. However, unlike keyword searches, a semantic entity-focused search requires that web documents are annotated with semantic representations of common words and named entities. Manual semantic annotation of (web) documents is time-consuming; in response, automatic annotation services have emerged in recent years. These annotation services take continuous text as input, detect important key terms and named entities and annotate them with semantic entities contained in widely used semantic knowledge bases, such as Freebase or DBpedia. Metadata of video documents require special attention. Semantic analysis approaches for continuous text cannot be applied, because information of a context in video documents originates from multiple sources possessing different reliabilities and characteristics. This thesis presents a semantic analysis approach consisting of a context model and a disambiguation algorithm for video metadata. The context model takes into account the characteristics of video metadata and derives a confidence value for each metadata item. The confidence value represents the level of correctness and ambiguity of the textual information of the metadata item. The lower the ambiguity and the higher the prospective correctness, the higher the confidence value. The metadata items derived from the video metadata are analyzed in a specific order from high to low confidence level. Previously analyzed metadata are used as reference points in the context for subsequent disambiguation. The contextually most relevant entity is identified by means of descriptive texts and semantic relationships to the context. The context is created dynamically for each metadata item, taking into account the confidence value and other characteristics. The proposed semantic analysis follows two hypotheses: metadata items of a context should be processed in descendent order of their confidence value, and the metadata that pertains to a context should be limited by content-based segmentation boundaries. The evaluation results support the proposed hypotheses and show increased recall and precision for annotated entities, especially for metadata that originates from sources with low reliability. The algorithms have been evaluated against several state-of-the-art annotation approaches. The presented semantic analysis process is integrated into a video analysis framework and has been successfully applied in several projects for the purpose of semantic video exploration of videos.

Page generated in 0.0658 seconds