• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 107
  • 101
  • 27
  • 6
  • 2
  • Tagged with
  • 241
  • 108
  • 60
  • 57
  • 57
  • 52
  • 40
  • 37
  • 37
  • 36
  • 36
  • 24
  • 23
  • 22
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Lightweight cryptography cryptographic engineering for a pervasive world

Poschmann, Axel York January 2009 (has links)
Zugl.: Bochum, Univ., Diss., 2009
132

Virtuelle Roboterprogrammierung : Basierend auf einer Any-Time fähigen Simulation deformierbarer linearer Objekte /

Kahl, Björn. January 2008 (has links)
Universität Bayreuth, Diss., 2007.
133

PAC-Bayesian pattern classification with kernels theory, algorithms, and an application to the game of Go /

Graepel, Thore. Unknown Date (has links) (PDF)
Techn. University, Diss., 2002--Berlin.
134

Word posterior probabilities for large vocabulary continuous speech recognition

Wessel, Frank. Unknown Date (has links) (PDF)
Techn. Hochsch., Diss., 2002--Aachen.
135

Sprache, Technik und Gesellschaft soziologische Reflexionen zu Gestaltungszwängen und -freiheiten am Beispiel der Informationstechnologie und des maschinellen Dolmetschsystems "Verbmobil" /

Krause, Detlev. Unknown Date (has links) (PDF)
Universiẗat, Diss., 2004--Tübingen.
136

Plan projection, execution, and learning for mobile robot control

Belker, Thorsten. Unknown Date (has links) (PDF)
University, Diss., 2004--Bonn.
137

Automatische Spracherkennung für agierende Systeme

Hohenner, Sascha. Unknown Date (has links)
Universiẗat, Diss., 2005--Bielefeld.
138

Investigations on linear transformations for speaker adaptation and normalization

Pitz, Michael. Unknown Date (has links) (PDF)
Techn. Hochsch., Diss., 2005--Aachen.
139

Classification of Stock Exchange News

Kroha, Petr, Baeza-Yates, Ricardo 24 November 2004 (has links) (PDF)
In this report we investigate how much similarity good news and bad news may have in context of long-terms market trends. We discuss the relation between text mining, classification, and information retrieval. We present examples that use identical set of words but have a quite different meaning, we present examples that can be interpreted in both positive or negative sense so that the decision is difficult as before reading them. Our examples prove that methods of information retrieval are not strong enough to solve problems as specified above. For searching of common properties in groups of news we had used classifiers (e.g. naive Bayes classifier) after we found that the use of diagnostic methods did not deliver reasonable results. For our experiments we have used historical data concerning the German market index DAX 30. / In diesem Bericht untersuchen wir, wieviel Ähnlichkeit gute und schlechte Nachrichten im Kontext von Langzeitmarkttrends besitzen. Wir diskutieren die Verbindungen zwischen Text Mining, Klassifikation und Information Retrieval. Wir präsentieren Beispiele, die identische Wortmengen verwenden, aber trotzdem recht unterschiedliche Bedeutungen besitzen; Beispiele, die sowohl positiv als auch negativ interpretiert werden können. Sie zeigen Probleme auf, die mit Methoden des Information Retrieval nicht gelöst werden können. Um nach Gemeinsamkeiten in Nachrichtengruppen zu suchen, verwendeten wir Klassifikatoren (z.B. Naive Bayes), nachdem wir herausgefunden hatten, dass der Einsatz von diagnostizierenden Methoden keine vernünftigen Resultate erzielte. Für unsere Experimente nutzten wir historische Daten des Deutschen Aktienindex DAX 30.
140

Analyse von webbasierten eGovernment-Anwendungen hinsichtlich der Optimierung von Suchmechanismen mit Methoden der Automatischen Sprachverarbeitung

Mairif, Patrick 20 October 2017 (has links)
Als Vertreter einer webbasierten eGovernment-Anwendung wird die Website der Stadt Leipzig in Hinblick einer möglichen Optimierung der Suchmechanismen analysiert. Dazu wird zu Beginn die Ausgangssituation auf vorhandene Daten und existierende Probleme untersucht. Es wird eine These bzgl. des unterschiedlichen Sprachgebrauchs auf Redaktions- und auf Nutzerseite formuliert. Der Analyse liegen die Dokumente der Website, sowie Suchanfragen der Nutzer zu Grunde. Aus den Dokumenten werden Fachbegriffe mit Hilfe des ConceptComposers extrahiert und diese zusätzlich mit den Suchanfragen verglichen. Andersherum werden auch die Suchanfragen mit den Dokumenten der Website verglichen und spezifische Begriffe des Sprachgebrauchs der Nutzer ermittelt. Während der Analyse wird eingehend auf das Thema Mehrwortbegriffe eingegangen, sowie verschiedene Methoden der Automatischen Sprachverarbeitung beleuchtet. Im direkten Zusammenhang mit der Analyse sind Werkzeuge entstanden, die es ermöglichen die Analyse in andere Umgebungen zu portieren. Es ist ein einfaches Framework für die Integration von Verfahren zur Berechnung von Synonymen entstanden, das auf die gewonnen Daten aufsetzt und es werden Wege für die Generierung eines Wörterbuches 'Amt-Bürgersprache' aufgewiesen.

Page generated in 0.098 seconds