• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 213
  • 74
  • 14
  • 2
  • Tagged with
  • 302
  • 302
  • 210
  • 187
  • 178
  • 133
  • 123
  • 123
  • 61
  • 36
  • 35
  • 31
  • 29
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Machine learning techniques for time series classification

Botsch, Michael-Felix January 2009 (has links)
Zugl.: München, Techn. Univ., Diss., 2009
32

Support-Vektor-Maschinen und statistische neuronale Netze im Data Mining und Datenqualitätsmanagement : eine empirische Analyse am Beispiel der Unternehmenssolvenz /

Franken, Ronald. January 2008 (has links)
Zugl.: Berlin, TU, Diss., 2008 u.d.T.: Franken, Ronald: Support-Vektor-Maschinen und statistische neuronale Netze im Data Mining und Datenqualitätsmanagement am Beispiel der Analyse der Unternehmenssolvenz.
33

Exploring methods for the automatic summarization of meetings

Mieskes, Margot January 2009 (has links)
Erlangen-Nürnberg, Univ., Diss., 2009. / Mit dt. und engl. Zsfassung.
34

Inference modeling of gene regulatory networks

Dejori, Mathäus. Unknown Date (has links)
Techn. University, Diss., 2005--München.
35

Space-bounded learning algorithms /

Ameur, Foued ben Fredj. January 1996 (has links)
Zugl.: Paderborn, University-Gesamthochsch., Diss., 1995.
36

Weight discretization due to optical constraints and its influence on the generalization abilities of a simple perceptron

Aboukassem, Maissa. Unknown Date (has links) (PDF)
University, Diss., 2000--Mannheim.
37

Investigations on discriminative training criteria

Schlüter, Ralf. Unknown Date (has links) (PDF)
Techn. Hochsch., Diss., 2000--Aachen.
38

Context-specific Consistencies in Information Extraction: Rule-based and Probabilistic Approaches / Kontextspezifische Konsistenzen in der Informationsextraktion: Regelbasierte und Probabilistische Ansätze

Klügl, Peter January 2015 (has links) (PDF)
Large amounts of communication, documentation as well as knowledge and information are stored in textual documents. Most often, these texts like webpages, books, tweets or reports are only available in an unstructured representation since they are created and interpreted by humans. In order to take advantage of this huge amount of concealed information and to include it in analytic processes, it needs to be transformed into a structured representation. Information extraction considers exactly this task. It tries to identify well-defined entities and relations in unstructured data and especially in textual documents. Interesting entities are often consistently structured within a certain context, especially in semi-structured texts. However, their actual composition varies and is possibly inconsistent among different contexts. Information extraction models stay behind their potential and return inferior results if they do not consider these consistencies during processing. This work presents a selection of practical and novel approaches for exploiting these context-specific consistencies in information extraction tasks. The approaches direct their attention not only to one technique, but are based on handcrafted rules as well as probabilistic models. A new rule-based system called UIMA Ruta has been developed in order to provide optimal conditions for rule engineers. This system consists of a compact rule language with a high expressiveness and strong development support. Both elements facilitate rapid development of information extraction applications and improve the general engineering experience, which reduces the necessary efforts and costs when specifying rules. The advantages and applicability of UIMA Ruta for exploiting context-specific consistencies are illustrated in three case studies. They utilize different engineering approaches for including the consistencies in the information extraction task. Either the recall is increased by finding additional entities with similar composition, or the precision is improved by filtering inconsistent entities. Furthermore, another case study highlights how transformation-based approaches are able to correct preliminary entities using the knowledge about the occurring consistencies. The approaches of this work based on machine learning rely on Conditional Random Fields, popular probabilistic graphical models for sequence labeling. They take advantage of a consistency model, which is automatically induced during processing the document. The approach based on stacked graphical models utilizes the learnt descriptions as feature functions that have a static meaning for the model, but change their actual function for each document. The other two models extend the graph structure with additional factors dependent on the learnt model of consistency. They include feature functions for consistent and inconsistent entities as well as for additional positions that fulfill the consistencies. The presented approaches are evaluated in three real-world domains: segmentation of scientific references, template extraction in curricula vitae, and identification and categorization of sections in clinical discharge letters. They are able to achieve remarkable results and provide an error reduction of up to 30% compared to usually applied techniques. / Diese Arbeit befasst sich mit regelbasierten und probabilistischen Ansätzen der Informationsextraktion, welche kontextspezifische Konsistenzen ausnutzen und somit die Extraktionsgenauigkeit verbessern.
39

Product-Matching mithilfe künstlicher neuronaler Netze basierend auf Match-R-CNN

Schmidt-Dichte, Stefan 15 June 2022 (has links)
In dieser Arbeit wird Match-R-CNN unter dem Gesichtspunkt des Product-Matchings analysiert und implementiert. Bei Match-R-CNN handelt es sich um ein Framework, welches zur Analyse von Bekleidungsbildern eingesetzt werden kann. Es wurde bei Ge et al. [GZW+19] eingeführt. Product-Matching ist die Aufgabe zwei identische Produkte zu identifizieren. Methoden der Bildverabeitung und maschinellen Lernens werden erläutert. Des Weiteren wird der aktuelle Forschungsstand in verwandten Gebieten erörtert. Es war möglich den Aufbau von Match-R-CNN zu analysieren. Hierfür wurden Ge et al. [GZW+19] und Diskussionen im dazugehörigen Github-Repository [git19] herangezogen. Um die Implementierung abschließend zu bewerten, ist weitere Arbeit notwendig.:1 Einleitung 2 Grundlagen 2.1 Bildverarbeitung 2.1.1 Kantenerkennung 2.1.2 Bildfaltung 2.1.3 Probleme bei der Umsetzung 2.2 Convolutional Neural Networks 2.2.1 Probleme bei konventionellen künstlichen neuronalen Netzen 2.2.2 Besonderheiten bei CNNs 2.2.3 Aufbau und Hyperparameter 2.2.4 Training von CNNs 2.2.5 Aktuelle Erkenntnisse 2.3 Ähnlichkeit auf Bildern 3 Verwandte Arbeiten 3.1 Clothing Retrieval und Detection 3.2 Product-Matching 3.3 Deep Similarity 4 Methodik und Umsetzung 4.1 Datensatz 4.2 Datenaufbereitung 4.3 Netzwerkarchitektur 4.3.1 Feature-Network 4.3.2 Matching-Network 4.4 Strategie zur Erzeugung der Trainingspaare 4.5 Matching-Network Training 4.6 Experimente und Zwischenergebnisse 4.7 Ergebnisse 5 Fazit 6 Ausblick Literaturverzeichnis Abbildungsverzeichnis
40

Untersuchungen zur echtzeitfähigen Bilderkennung mit neuronalen Netzen auf konventionellen Industriesteuerungen

Wree, Christoph, Raßmann, Rando, Daâs, Janis, Bause, Fabian, Schönfeld, T. 27 January 2022 (has links)
Fertigungssysteme für die individualisierte Produktion erfordern Arbeitsabläufe, die von einzelnen Objekten abhängig sind. Maschinelles Lernen (ML) bietet die Möglichkeit, verschiedene Objekte mit Hilfe eines neuronalen Netzes zu klassifizieren. Abhängig von den Klassifikationsergebnissen können Entscheidungen für den nachfolgenden Produktionsschritt getroffen werden. Es wird untersucht, ob es möglich ist, ein neuronales Netz zur Bilderkennung in Echtzeit und in Koordination mit den Maschinen- und Bewegungssteuerungsaufgaben auszuführen. In dieser Arbeit wird die Umsetzung und Messung mit Hilfe einer SPS-Laufzeitumgebung auf einem Standard-Industrie-PC durchgeführt. Die Ausführungszeiten verschiedener Methoden zur Implementierung neuronaler Netze werden gemessen und verglichen. Das schnellste neuronale Netz benötigt eine durchschnittliche Ausführungszeit von nur 39 μs. Darüber hinaus werden die Eigenschaften der verschiedenen Methoden in Bezug auf das Training und die Implementierung der neuronalen Netze innerhalb verschiedener industrieller Steuerungen diskutiert.

Page generated in 0.0672 seconds