31 |
Machine learning techniques for time series classificationBotsch, Michael-Felix January 2009 (has links)
Zugl.: München, Techn. Univ., Diss., 2009
|
32 |
Support-Vektor-Maschinen und statistische neuronale Netze im Data Mining und Datenqualitätsmanagement : eine empirische Analyse am Beispiel der Unternehmenssolvenz /Franken, Ronald. January 2008 (has links)
Zugl.: Berlin, TU, Diss., 2008 u.d.T.: Franken, Ronald: Support-Vektor-Maschinen und statistische neuronale Netze im Data Mining und Datenqualitätsmanagement am Beispiel der Analyse der Unternehmenssolvenz.
|
33 |
Exploring methods for the automatic summarization of meetingsMieskes, Margot January 2009 (has links)
Erlangen-Nürnberg, Univ., Diss., 2009. / Mit dt. und engl. Zsfassung.
|
34 |
Inference modeling of gene regulatory networksDejori, Mathäus. Unknown Date (has links)
Techn. University, Diss., 2005--München.
|
35 |
Space-bounded learning algorithms /Ameur, Foued ben Fredj. January 1996 (has links)
Zugl.: Paderborn, University-Gesamthochsch., Diss., 1995.
|
36 |
Weight discretization due to optical constraints and its influence on the generalization abilities of a simple perceptronAboukassem, Maissa. Unknown Date (has links) (PDF)
University, Diss., 2000--Mannheim.
|
37 |
Investigations on discriminative training criteriaSchlüter, Ralf. Unknown Date (has links) (PDF)
Techn. Hochsch., Diss., 2000--Aachen.
|
38 |
Context-specific Consistencies in Information Extraction: Rule-based and Probabilistic Approaches / Kontextspezifische Konsistenzen in der Informationsextraktion: Regelbasierte und Probabilistische AnsätzeKlügl, Peter January 2015 (has links) (PDF)
Large amounts of communication, documentation as well as knowledge and information are stored in textual documents. Most often, these texts like webpages, books, tweets or reports are only available in an unstructured representation since they are created and interpreted by humans. In order to take advantage of this huge amount of concealed information and to include it in analytic processes, it needs to be transformed into a structured representation. Information extraction considers exactly this task. It tries to identify well-defined entities and relations in unstructured data and especially in textual documents.
Interesting entities are often consistently structured within a certain context, especially in semi-structured texts. However, their actual composition varies and is possibly inconsistent among different contexts. Information extraction models stay behind their potential and return inferior results if they do not consider these consistencies during processing. This work presents a selection of practical and novel approaches for exploiting these context-specific consistencies in information extraction tasks. The approaches direct their attention not only to one technique, but are based on handcrafted rules as well as probabilistic models.
A new rule-based system called UIMA Ruta has been developed in order to provide optimal conditions for rule engineers. This system consists of a compact rule language with a high expressiveness and strong development support. Both elements facilitate rapid development of information extraction applications and improve the general engineering experience, which reduces the necessary efforts and costs when specifying rules.
The advantages and applicability of UIMA Ruta for exploiting context-specific consistencies are illustrated in three case studies. They utilize different engineering approaches for including the consistencies in the information extraction task. Either the recall is increased by finding additional entities with similar composition, or the precision is improved by filtering inconsistent entities. Furthermore, another case study highlights how transformation-based approaches are able to correct preliminary entities using the knowledge about the occurring consistencies.
The approaches of this work based on machine learning rely on Conditional Random Fields, popular probabilistic graphical models for sequence labeling. They take advantage of a consistency model, which is automatically induced during processing the document. The approach based on stacked graphical models utilizes the learnt descriptions as feature functions that have a static meaning for the model, but change their actual function for each document. The other two models extend the graph structure with additional factors dependent on the learnt model of consistency. They include feature functions for consistent and inconsistent entities as well as for additional positions that fulfill the consistencies.
The presented approaches are evaluated in three real-world domains: segmentation of scientific references, template extraction in curricula vitae, and identification and categorization of sections in clinical discharge letters. They are able to achieve remarkable results and provide an error reduction of up to 30% compared to usually applied techniques. / Diese Arbeit befasst sich mit regelbasierten und probabilistischen Ansätzen der Informationsextraktion, welche kontextspezifische Konsistenzen ausnutzen und somit die Extraktionsgenauigkeit verbessern.
|
39 |
Product-Matching mithilfe künstlicher neuronaler Netze basierend auf Match-R-CNNSchmidt-Dichte, Stefan 15 June 2022 (has links)
In dieser Arbeit wird Match-R-CNN unter dem Gesichtspunkt des Product-Matchings analysiert und implementiert. Bei Match-R-CNN handelt es sich um ein Framework, welches zur Analyse von Bekleidungsbildern eingesetzt werden kann. Es wurde bei Ge et al. [GZW+19] eingeführt. Product-Matching ist die Aufgabe zwei identische Produkte zu identifizieren. Methoden der Bildverabeitung und maschinellen Lernens werden erläutert. Des Weiteren wird der aktuelle Forschungsstand in verwandten Gebieten erörtert. Es war möglich den Aufbau von Match-R-CNN zu analysieren. Hierfür wurden Ge et al. [GZW+19] und Diskussionen im dazugehörigen Github-Repository [git19] herangezogen. Um die Implementierung abschließend zu bewerten, ist weitere Arbeit notwendig.:1 Einleitung
2 Grundlagen
2.1 Bildverarbeitung
2.1.1 Kantenerkennung
2.1.2 Bildfaltung
2.1.3 Probleme bei der Umsetzung
2.2 Convolutional Neural Networks
2.2.1 Probleme bei konventionellen künstlichen neuronalen Netzen
2.2.2 Besonderheiten bei CNNs
2.2.3 Aufbau und Hyperparameter
2.2.4 Training von CNNs
2.2.5 Aktuelle Erkenntnisse
2.3 Ähnlichkeit auf Bildern
3 Verwandte Arbeiten
3.1 Clothing Retrieval und Detection
3.2 Product-Matching
3.3 Deep Similarity
4 Methodik und Umsetzung
4.1 Datensatz
4.2 Datenaufbereitung
4.3 Netzwerkarchitektur
4.3.1 Feature-Network
4.3.2 Matching-Network
4.4 Strategie zur Erzeugung der Trainingspaare
4.5 Matching-Network Training
4.6 Experimente und Zwischenergebnisse
4.7 Ergebnisse
5 Fazit
6 Ausblick
Literaturverzeichnis
Abbildungsverzeichnis
|
40 |
Untersuchungen zur echtzeitfähigen Bilderkennung mit neuronalen Netzen auf konventionellen IndustriesteuerungenWree, Christoph, Raßmann, Rando, Daâs, Janis, Bause, Fabian, Schönfeld, T. 27 January 2022 (has links)
Fertigungssysteme für die individualisierte Produktion erfordern Arbeitsabläufe, die von einzelnen
Objekten abhängig sind. Maschinelles Lernen (ML) bietet die Möglichkeit, verschiedene Objekte mit
Hilfe eines neuronalen Netzes zu klassifizieren. Abhängig von den Klassifikationsergebnissen können
Entscheidungen für den nachfolgenden Produktionsschritt getroffen werden. Es wird untersucht, ob
es möglich ist, ein neuronales Netz zur Bilderkennung in Echtzeit und in Koordination mit den Maschinen-
und Bewegungssteuerungsaufgaben auszuführen. In dieser Arbeit wird die Umsetzung und
Messung mit Hilfe einer SPS-Laufzeitumgebung auf einem Standard-Industrie-PC durchgeführt. Die
Ausführungszeiten verschiedener Methoden zur Implementierung neuronaler Netze werden gemessen
und verglichen. Das schnellste neuronale Netz benötigt eine durchschnittliche Ausführungszeit
von nur 39 μs. Darüber hinaus werden die Eigenschaften der verschiedenen Methoden in Bezug auf
das Training und die Implementierung der neuronalen Netze innerhalb verschiedener industrieller
Steuerungen diskutiert.
|
Page generated in 0.0672 seconds