• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 7
  • 6
  • Tagged with
  • 22
  • 20
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Automatische Analyse orthographischer Leistungen von Schreibanfängern

Thelen, Tobias 09 June 2010 (has links)
Ziel der vorliegenden Arbeit ist es, Möglichkeiten und Grenzen der automatisierten Analyse orthographischer Leistungen von Schreibanfängern zu erforschen und zu bewerten. Ausgangspunkt der Betrachtungen ist ein linguistisch orientiertes Modell der deutschen Orthographie, für das zudem erprobte didaktische Umsetzungen für den Anfangsunterricht im Lesen und Schreiben existieren. Dieses Modell dient, vor allem auf den Bereich der Wortschreibung fokussiert, als Beurteilungskriterium etablierter standardisierter und nicht-standardisierter diagnostischer Rechtschreibtests. Bei den betrachteten Tests wurden Defizite auf mehreren Ebenen festgestellt. Zum einen operieren sie mit linguistisch nicht sauber begründbaren Begriffen und Kategorieabgrenzungen. Zum anderen und zum Teil daraus folgend erlauben sie nur wenige diagnostische Schlüsse, die zielgerichtetes didaktisches Handeln begründen können. Aus diesen Gründen wird ein neues, vor allem auf phonologische Aspekte der Wortschreibung abzielendes Auswertungsschema definiert. Auf dieser linguistisch gesicherten und für den Praxiseinsatz vielversprechenden Grundlage werden unterschiedliche algorithmische Verfahren entworfen, umgesetzt und erprobt werden, die die notwendigen Analyseschritte automatisieren oder zumindest teilautomatisieren können. Für die Erprobung der Verfahren wurde ein Testkorpus von ca. 750 Bildergeschichtenverschriftungen aus verschiedenen Regionen Deutschlands erhoben. Die entworfenen Analyseverfahren decken drei Bereiche ab: Die Analyse von Wortschreibungen ohne Kenntnis der korrekten Schreibungen, den Vergleich korrekter und beobachteter Wortschreibungen und die Analyse von Groß- und Kleinschreibungsleistungen. Die Verfahren liefern keine unmittelbaren Erkenntnisse über Wissen und kognitive Zustände der Schreiber. Vielmehr liegt ihnen ein Modell zur Validität von Analyseergebnissen zugrunde, das sich wesentlich auf die Gültigkeit zweier Übertragungen beruft: Zum Einen die Übertragung des Gegenstandsbereichs Orthographie in ein linguistisch fundiertes Modell der deutschen Orthographie und daraus begründete Analysekategorien. Und zum Anderen die Übertragung der beobachteten Leistungen in ein Wissensmodell des Lerners, das wiederum linguistisch fundiert ist und mithilfe linguistisch begründeter didaktischer Modelle in unterrichtliches Handeln umgesetzt werden kann. Die Verfahren konnten so weit entwickelt und umgesetzt werden, dass sie für den tatsächlichen Praxiseinsatz geeignet sind.
2

Thematische Abfrage mit Computerlinguistik

Loth, Klaus 24 June 2005 (has links) (PDF)
Der Beitrag befasst sich mit dem Einsatz der Computerlinguistik bei der thematischen Abfrage einer mehrsprachigen bibliographischen Datenbank. Das Verbundsystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz) wurde durch computerlinguistische Komponenten ergänzt, um die thematische Abfrage in den drei Sprachen Deutsch, Englisch und Französisch effektiver und benutzerfreundlicher zu machen. Im Schwerpunkt wird die Kopplung des dreisprachigen Sachregisters (Thesaurus) mit dem computerlinguistischen System behandelt.
3

Thematische Abfrage mit Computerlinguistik

Loth, Klaus 21 August 2007 (has links) (PDF)
Das Original-Dokument wurde in das Format pdf umgewandelt. Der Beitrag befasst sich mit dem Einsatz der Computerlinguistik bei der thematischen Abfrage einer mehrsprachigen bibliographischen Datenbank. Das Verbundsystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz) wurde durch computerlinguistische Komponenten ergänzt, um die thematische Abfrage in den drei Sprachen Deutsch, Englisch und Französisch effektiver und benutzerfreundlicher zu machen. Im Schwerpunkt wird die Kopplung des dreisprachigen Sachregisters (Thesaurus) mit dem computerlinguistischen System behandelt.
4

Thematische Abfrage mit Computerlinguistik

Loth, Klaus 24 June 2005 (has links)
Der Beitrag befasst sich mit dem Einsatz der Computerlinguistik bei der thematischen Abfrage einer mehrsprachigen bibliographischen Datenbank. Das Verbundsystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz) wurde durch computerlinguistische Komponenten ergänzt, um die thematische Abfrage in den drei Sprachen Deutsch, Englisch und Französisch effektiver und benutzerfreundlicher zu machen. Im Schwerpunkt wird die Kopplung des dreisprachigen Sachregisters (Thesaurus) mit dem computerlinguistischen System behandelt.
5

Thematische Abfrage mit Computerlinguistik

Loth, Klaus 21 August 2007 (has links)
Das Original-Dokument wurde in das Format pdf umgewandelt. Der Beitrag befasst sich mit dem Einsatz der Computerlinguistik bei der thematischen Abfrage einer mehrsprachigen bibliographischen Datenbank. Das Verbundsystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz) wurde durch computerlinguistische Komponenten ergänzt, um die thematische Abfrage in den drei Sprachen Deutsch, Englisch und Französisch effektiver und benutzerfreundlicher zu machen. Im Schwerpunkt wird die Kopplung des dreisprachigen Sachregisters (Thesaurus) mit dem computerlinguistischen System behandelt.
6

Machine Translation: A Theoretical and Practical Introduction / Maschinelle Übersetzung: Eine theoretische und praktische Einführung

Riedel, Marion 08 May 2002 (has links) (PDF)
The paper presents the basics and the development of Machine Translation and explains different methods for evaluating translation machines on the base of a detailed example. / Die im Rahmen des Seminars "Language and Computers" der englischen Sprachwissenschaft entstandene Arbeit behandelt die Grundlagen und die Entwicklung der Maschinellen Übersetzung und gibt anhand eines ausführlichen Beispiels Einblick in Methoden zur Evaluation von Übersetzungsmaschinen.
7

Finite-state canonicalization techniques for historical German

Jurish, Bryan January 2011 (has links)
This work addresses issues in the automatic preprocessing of historical German input text for use by conventional natural language processing techniques. Conventional techniques cannot adequately account for historical input text due to conventional tools' reliance on a fixed application-specific lexicon keyed by contemporary orthographic surface form on the one hand, and the lack of consistent orthographic conventions in historical input text on the other. Historical spelling variation is treated here as an error-correction problem or "canonicalization" task: an attempt to automatically assign each (historical) input word a unique extant canonical cognate, thus allowing direct application-specific processing (tagging, parsing, etc.) of the returned canonical forms without need for any additional application-specific modifications. In the course of the work, various methods for automatic canonicalization are investigated and empirically evaluated, including conflation by phonetic identity, conflation by lemma instantiation heuristics, canonicalization by weighted finite-state rewrite cascade, and token-wise disambiguation by a dynamic Hidden Markov Model. / Diese Arbeit behandelt Themen der automatischen Vorverarbeitung historischen deutschen Textes für die Weiterverarbeitung durch konventionelle computerlinguistische Techniken. Konventionelle Techniken können historischen Text wegen des hohen Grads an graphematischer Variation in solchem Text ohne eine solche Vorverarbeitung nicht zufriedenstellend behandeln. Variation in der historischen Rechtschreibung wird hier als Fehlerkorrekturproblem oder "Kanonikalisierungsaufgabe" behandelt: ein Versuch, jedem (historischen) Eingabewort eine eindeutige extante Äquivalente zuzuordnen; so können konventionelle Techniken ohne weitere Modifikation direkt auf den gelieferten kanonischen Formen arbeiten. Verschiedene Methoden zur automatischen Kanonikalisierung werden im Rahmen dieser Arbeit untersucht, unter anderem Konflation durch phonetische Identität, Konflation durch Lemma-Instanziierungsheuristiken, Kanonikalisierung durch eine Kaskade gewichteter endlicher Transduktoren, und Disambiguiierung von Konflationskandidaten durch ein dynamisches Hidden Markov Modell.
8

Teaching natural language processing (NLP): a report from academic practice

Munson, Matthew 25 January 2018 (has links)
My experience teaching Natural Language Processing (NLP) methods with biblical sources is quite varied. I have taught both novice and advanced students in full semester courses, week-long summer school sessions, and even shorter eight or sixteen hour block sessions. I have also taught students in both the humanities and in computer science. I will thus organize the following article as a report of these experiences focusing especially on the things that I have done that I believe have worked well and those which I think did not worked so well. I should preface all of these remarks also by saying that the methods I use for teaching NLP are only one way to do it. I have had good results using them and I believe that they work, but I also believe that there are other pedagogical methods that could work equally well for a different instructor in a different context.
9

Exploiting Linguistic and Statistical Knowledge in a Text Alignment System

Schrader, Bettina 20 February 2009 (has links)
In machine translation, the alignment of corpora has evolved into a mature research area, aimed at providing training data for statistical or example-based machine translation systems. Moreover, the alignment information can be used for a variety of other purposes, including lexicography and the induction of tools for natural language processing. The alignment techniques used for these purposes fall roughly in two separate classes: sentence alignment approaches that often combine statistical and linguistic information, and word alignment models that are dominated by the statistical machine translation paradigm. Alignment approaches that use linguistic knowledge provided by corpus annotation are rare, as are as non-statistical word alignment strategies. Furthermore, parallel corpora are typically not aligned at all text levels simultaneously. Rather, a corpus is first sentence aligned, and in a subsequent step, the alignment information is refined to go below the sentence level. In this thesis, the distinction between the two alignment classes is withdrawn. Rather, a system is introduced that can simultaneously align at the paragraph, sentence, word, and phrase level. Furthermore, linguistic as well as statistical information can be combined. This combination of alignment cues from different knowledge sources, as well as the combination of the sentence and word alignment tasks, is made possible by the development of a modular alignment platform. Its main features are that it supports different kinds of linguistic corpus annotation, and furthermore aligns a corpus hierarchically, such that sentence and word alignments are cohesive. Alignment cues are not used within a global alignment model. Rather, different sub-models can be implemented and allowed to interact. Most of the alignment modules of the system have been implemented using empirical corpus studies, aimed at showing how the most common types of corpus annotation can be exploited for the alignment task.
10

Bimorphism Machine Translation

Quernheim, Daniel 27 April 2017 (has links) (PDF)
The field of statistical machine translation has made tremendous progress due to the rise of statistical methods, making it possible to obtain a translation system automatically from a bilingual collection of text. Some approaches do not even need any kind of linguistic annotation, and can infer translation rules from raw, unannotated data. However, most state-of-the art systems do linguistic structure little justice, and moreover many approaches that have been put forward use ad-hoc formalisms and algorithms. This inevitably leads to duplication of effort, and a separation between theoretical researchers and practitioners. In order to remedy the lack of motivation and rigor, the contributions of this dissertation are threefold: 1. After laying out the historical background and context, as well as the mathematical and linguistic foundations, a rigorous algebraic model of machine translation is put forward. We use regular tree grammars and bimorphisms as the backbone, introducing a modular architecture that allows different input and output formalisms. 2. The challenges of implementing this bimorphism-based model in a machine translation toolkit are then described, explaining in detail the algorithms used for the core components. 3. Finally, experiments where the toolkit is applied on real-world data and used for diagnostic purposes are described. We discuss how we use exact decoding to reason about search errors and model errors in a popular machine translation toolkit, and we compare output formalisms of different generative capacity.

Page generated in 0.095 seconds