• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 100
  • 27
  • 6
  • 2
  • Tagged with
  • 238
  • 106
  • 59
  • 56
  • 56
  • 52
  • 39
  • 37
  • 36
  • 36
  • 36
  • 24
  • 23
  • 22
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Virtuelle Roboterprogrammierung : Basierend auf einer Any-Time fähigen Simulation deformierbarer linearer Objekte /

Kahl, Björn. January 2008 (has links)
Universität Bayreuth, Diss., 2007.
132

PAC-Bayesian pattern classification with kernels theory, algorithms, and an application to the game of Go /

Graepel, Thore. Unknown Date (has links) (PDF)
Techn. University, Diss., 2002--Berlin.
133

Word posterior probabilities for large vocabulary continuous speech recognition

Wessel, Frank. Unknown Date (has links) (PDF)
Techn. Hochsch., Diss., 2002--Aachen.
134

Sprache, Technik und Gesellschaft soziologische Reflexionen zu Gestaltungszwängen und -freiheiten am Beispiel der Informationstechnologie und des maschinellen Dolmetschsystems "Verbmobil" /

Krause, Detlev. Unknown Date (has links) (PDF)
Universiẗat, Diss., 2004--Tübingen.
135

Plan projection, execution, and learning for mobile robot control

Belker, Thorsten. Unknown Date (has links) (PDF)
University, Diss., 2004--Bonn.
136

Automatische Spracherkennung für agierende Systeme

Hohenner, Sascha. Unknown Date (has links)
Universiẗat, Diss., 2005--Bielefeld.
137

Investigations on linear transformations for speaker adaptation and normalization

Pitz, Michael. Unknown Date (has links) (PDF)
Techn. Hochsch., Diss., 2005--Aachen.
138

Classification of Stock Exchange News

Kroha, Petr, Baeza-Yates, Ricardo 24 November 2004 (has links) (PDF)
In this report we investigate how much similarity good news and bad news may have in context of long-terms market trends. We discuss the relation between text mining, classification, and information retrieval. We present examples that use identical set of words but have a quite different meaning, we present examples that can be interpreted in both positive or negative sense so that the decision is difficult as before reading them. Our examples prove that methods of information retrieval are not strong enough to solve problems as specified above. For searching of common properties in groups of news we had used classifiers (e.g. naive Bayes classifier) after we found that the use of diagnostic methods did not deliver reasonable results. For our experiments we have used historical data concerning the German market index DAX 30. / In diesem Bericht untersuchen wir, wieviel Ähnlichkeit gute und schlechte Nachrichten im Kontext von Langzeitmarkttrends besitzen. Wir diskutieren die Verbindungen zwischen Text Mining, Klassifikation und Information Retrieval. Wir präsentieren Beispiele, die identische Wortmengen verwenden, aber trotzdem recht unterschiedliche Bedeutungen besitzen; Beispiele, die sowohl positiv als auch negativ interpretiert werden können. Sie zeigen Probleme auf, die mit Methoden des Information Retrieval nicht gelöst werden können. Um nach Gemeinsamkeiten in Nachrichtengruppen zu suchen, verwendeten wir Klassifikatoren (z.B. Naive Bayes), nachdem wir herausgefunden hatten, dass der Einsatz von diagnostizierenden Methoden keine vernünftigen Resultate erzielte. Für unsere Experimente nutzten wir historische Daten des Deutschen Aktienindex DAX 30.
139

Analyse von webbasierten eGovernment-Anwendungen hinsichtlich der Optimierung von Suchmechanismen mit Methoden der Automatischen Sprachverarbeitung

Mairif, Patrick 20 October 2017 (has links)
Als Vertreter einer webbasierten eGovernment-Anwendung wird die Website der Stadt Leipzig in Hinblick einer möglichen Optimierung der Suchmechanismen analysiert. Dazu wird zu Beginn die Ausgangssituation auf vorhandene Daten und existierende Probleme untersucht. Es wird eine These bzgl. des unterschiedlichen Sprachgebrauchs auf Redaktions- und auf Nutzerseite formuliert. Der Analyse liegen die Dokumente der Website, sowie Suchanfragen der Nutzer zu Grunde. Aus den Dokumenten werden Fachbegriffe mit Hilfe des ConceptComposers extrahiert und diese zusätzlich mit den Suchanfragen verglichen. Andersherum werden auch die Suchanfragen mit den Dokumenten der Website verglichen und spezifische Begriffe des Sprachgebrauchs der Nutzer ermittelt. Während der Analyse wird eingehend auf das Thema Mehrwortbegriffe eingegangen, sowie verschiedene Methoden der Automatischen Sprachverarbeitung beleuchtet. Im direkten Zusammenhang mit der Analyse sind Werkzeuge entstanden, die es ermöglichen die Analyse in andere Umgebungen zu portieren. Es ist ein einfaches Framework für die Integration von Verfahren zur Berechnung von Synonymen entstanden, das auf die gewonnen Daten aufsetzt und es werden Wege für die Generierung eines Wörterbuches 'Amt-Bürgersprache' aufgewiesen.
140

Automatische Ermittlung semantischer Zusammenhänge lexikalischer Einheiten und deren graphische Darstellung

Schmidt, Fabian 16 November 2017 (has links)
In verschiedenen Bereichen der Linguistik werden Kollokationen genutzt, beispielsweise als Unterstützung bei der Erstellung von Wörterbüchern oder bei der Übersetzung von Fachtexten. Umfangreiche Kollokationssammlungen können aufgrund ihrer Größe nicht manuell erstellt werden. Deshalb wurden in den letzten Jahren verschiedene Verfahren entwickelt, um die Kollokationssammlungen durch statistische Analyse maschinenlesbarer Textkorpora zu erzeugen. Neben guten Kandidaten ermitteln die meisten herkömmlichen Verfahren auch viele Wortpaare, deren Plausibilität nicht unmitttelbar ersichtlich ist. Darum wird in der vorliegenden Diplomarbeit ein neues, in der Abteilung für Automatische Sprachverarbeitung am Institut für Informatik der Universität unter Leitung von Dr. U. Quasthoff entwickeltes Verfahren zur Berechnung von Kollokationen vorgestellt. Aufbauend auf ein Repertoire der nun vorhandenen Kollokationen kann die Fragestellung nach semantischen Relationen zwischen lexikalischen Einheiten weiter ausgebaut werden. Die in dieser Arbeit eingeführten Kollokationen zweiter Ordnung verfolgen diesen Ansatz. Neben der automatischen Extraktion von Kollokationen stellt auch die adäquate Darstellung derselben ein noch nicht zufriedenstellend gelöstes Problem dar. Für die Visualisierung der im Wortschatzprojekt gefundenen Kollokationen wurde deshalb ein Verfahren entwickelt, das in der Lage ist, eine Menge von Kollokationen in einem Graphen ästhetisch ansprechend und übersichtlich darzustellen.

Page generated in 0.9982 seconds