• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3193
  • 1384
  • 480
  • 24
  • 5
  • 4
  • 1
  • Tagged with
  • 5071
  • 3728
  • 2830
  • 2817
  • 2817
  • 1863
  • 1727
  • 1724
  • 1709
  • 1707
  • 1197
  • 713
  • 698
  • 684
  • 678
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Integration eines Service-Portfolio-Managers (SM) in ein Product-Lifecycle- Management-System (PLM)

Golemo, Florian 12 February 2018 (has links)
In vielen Branchen ist es üblich, dass Produkte oder Dienstleistungen nicht voneinander losgelöst angeboten werden, sondern gemeinsam in einem Produkt-Dienstleistungs-Bündel. Der Kunde hat möglicherweise beim Kauf die Wahl zwischen verschiedenen Produktvariationen, die dem Verkäufer wiederum verschiedene Dienstleistungen ermöglichen. Die Daten aus beiden Bereichen werden in Produkt-Lebenszyklus-Management-Systemen (PLM) bzw. Service-Portfolio-Management-Systemen (SM) verwaltet. Diese Systeme werden in aller Regel durch Software unterstützt. Dass es erhebliche ökonomische Vorteile für ein Unternehmen bietet, die gesamten Lebenszyklen seiner Produkte in einem System zu verwalten, ist erwiesen. Das Gleiche gilt für die elektronische Dienstleistungsverwaltung, die für zahlreiche Firmen bereits zur Notwendigkeit geworden ist. Ein zentrales Paradigma von PLM ist es, alle Unternehmensdaten in einem System zu integrieren. Bisher geschieht das überwiegend nur für Produkte während die Servicedaten-Integration weitgehend übersehen wird. Ziel dieser Arbeit ist es, die Einfachheit durch eine exemplarische Integration aufzuzeigen. Dazu wurde zunächst ein frei verfügbares PLM-Softwaresystem recherchiert und ausgewählt, der Aras Innovator. In dieses sollen die Daten aus dem SM-System „Service-Modeller“ integriert werden. Zu diesem Zweck soll eine Software entwickelt werden, welche die Daten aus dem SM extrahiert und im PLM verfügbar macht. Die Entwicklung fand in PHP statt und nutzt die SOAP-Schnittstellen beider Systeme. Das Ergebnis der Arbeit, das KonverterWerkzeug, erfüllt das gesteckte Ziel und steht als Open-Source-Anwendung online zum Herunterladen bereit.
342

Äquivalenz schwach expandierter Argumentationsframeworks in ausgewählten Semantiken

Hermann, Christopher 12 February 2018 (has links)
In dieser Arbeit haben wir uns mit der Äquivalenz schwach expandierter Argumentationsframeworks beschäftigt. Zunächst haben wir nochmal die Grundlagen der formalen Argumentation und der Semantiken der Akzeptierbarkeit wiederholt. Anschließend betrachteten wir die Konzepte der Expansionen und Splittings und konnten einen direkten Zusammenhang zwischen diesen feststellen. Daraufhin wandten wir uns den Splitting-Resultaten von Baumann [3] zu. Wir haben Redukte und Modifikationen kennengelernt und gesehen wie man diese zur Berechnung neuer Extensionen verwenden kann, nachdem ein Argumentationframework expandiert wurde. Dies geschieht durch das Berechnen einer Extension des ursprünglichen Frameworks, das Ermitteln der Modifikation des Redukts der Erweiterung und deren Extension und anschließende Vereinigung der beiden Extensionen zu einer neuen Extension des Gesamtframeworks.
343

Benutzerverwaltung in z/OS

Kreusch, Jonas 12 February 2018 (has links)
In dieser Arbeit werden die Konzepte der Benutzerverwaltung und des Ressourcenschutzes unter z/OS mit RACF erläutert und anhand des Zusammenspiels mit TSO konkretisiert. Außerdem werden die Konzepte von RACF mit denen des UNIX-Ressourcenschutz verglichen. Dazu werden auch die UNIX System Services, die UNIX-konforme Schnittstelle von z/OS, analysiert. Mit Hilfe eines REXX-Scriptes werden, aufbauend auf RACF-Befehlen, komplexere Aufgaben der Benutzerverwaltung implementiert.
344

Übersicht über Crowdsourcing-Ansätze und Plattformen zur Beurteilung von Matchergebnissen

Kubitzky, Sven 12 February 2018 (has links)
Diese Arbeit soll dafür einen Überblick der verschiedenen Crowdsourcing-Ansätze liefern und die Anforderungen und Probleme des Crowdsourcing untersuchen. Dafür wird zunächst das Zusammenführen unterschiedlicher Datenbestände (data matching) betrachtet. Darauf folgt eine allgemeine Vorstellung des Crowdsourcing, um abschließend die unterschiedlichen Ansätze untersuchen zu können.
345

Implementation eines Website-Klassifikators für die IPIB des Fraunhofer MOEZ

Lang, Philipp 13 February 2018 (has links)
Diese Bachelorarbeit wurde am Fraunhofer-Zentrum für Mittel- und Osteuropa erstellt. Ihr Ziel war die Automatisierung eines Teilprozesses, der im Zusammenhang mit der dort entwickelten Web-Anwendung Intellectual Property Industry Base1 steht.
346

EAGLE - learning of link specifications using genetic programming

Lyko, Klaus 13 February 2018 (has links)
Um die Vision eines Linked Data Webs zu verwirklichen werden effiziente halbautomatische Verfahren benötigt, um Links zwischen verschiedenen Datenquellen zu generieren. Viele bekannte Link Discovery Frameworks verlangen von einem Benutzer eine Linkspezifikation manuell zu erstellen, bevor der eigentliche Vergleichsprozess zum Finden dieser Links gestartet werden kann. Zwar wurden jüngst zeit- und ressourcenschonende Werkzeuge zur Ausführung von Linking-Operationen entwickelt, aber die Generierung möglichst präziser Linkspezifikationen ist weiterhin ein kompliziertes Unterfangen. Diese Arbeit präsentiert EAGLE - ein Werkzeug zum halbautomatischen Lernen solcher Linkspezifikationen. EAGLE erweitert das zeiteffiziente LIMES Framework um aktive Lernalgorithmen basierend auf Methoden der Genetischen Programmierung. Ziel ist es den manuellen Arbeitsaufwand während der Generierung präziser Linkspezifikationen für Benutzer zu minimieren. Das heißt insbesondere, dass die Menge an manuell annotierten Trainingsdaten minimiert werden soll. Dazu werden Batch- als auch aktive Lernalgorithmen verglichen. Zur Evaluation werden mehrere Datensätze unterschiedlichen Ursprungs und verschiedener Komplexität herangezogen. Es wird gezeigt, dass EAGLE zeiteffizient Linkspezifikationen vergleichbarer Genauigkeit bezüglich der F-Maße gernerieren kann, während ein geringerer Umfang an Trainingsdaten für die aktiven Lernalgorithmen benötigt wird. / On the way to the Linked Data Web, efficient and semi-automatic approaches for generating links between several data sources are needed. Many common Link Discovery frameworks require a user to specify a link specification, before starting the linking process. While time-efficient approaches for executing those link specification have been developed over the last years, the discovery of accurate link specifications remains a non-trivial problem. In this thesis, we present EAGLE, a machine-learning approach for link specifications. The overall goal behind EAGLE is to limit the labeling effort for the user, while generating highly accurate link specifications. To achieve this goal, we rely on the algorithms implemented in the LIMES framework and enhance it with both batch and active learning mechanisms based on genetic programming techniques. We compare both batch and active learning and evaluate our approach on several real world datasets from different domains. We show that we can discover link specifications with f-measures comparable to other approaches while relying on a smaller number of labeled instances and requiring significantly less execution time.
347

Active learning of link specifications using decision tree learning

Obraczka, Daniel 13 February 2018 (has links)
In this work we presented an implementation that uses decision trees to learn highly accurate link specifications. We compared our approach with three state-of-the-art classifiers on nine datasets and showed, that our approach gives comparable results in a reasonable amount of time. It was also shown, that we outperform the state-of-the-art on four datasets by up to 30%, but are still behind slightly on average. The effect of user feedback on the active learning variant was inspected pertaining to the number of iterations needed to deliver good results. It was shown that we can get FScores above 0.8 with most datasets after 14 iterations.
348

Wortbedeutungsdisambiguierung mittels sprachunabhängiger, kookkurrenzbasierter Algorithmen

Reuter, Sven 19 February 2018 (has links)
Der 'Disambiguierer' ist ein Projekt, das für die Universität Leipzig (Abteilung Automatische Sprachverarbeitung am Institut für Informatik) entstand. Einsatzzweck der Software ist das Identifizieren und Ersetzen von Mehrdeutigkeiten in Sätzen beliebiger Sprache. Die Software wurde in Java implementiert und basiert auf ein Verfahren von Stefan Bordag. Zu dem Thema Disambiguierung habe ich meine Bachelor-Arbeit verfasst, welche das Verfahren selbst und seine Ergebnisse beschreibt.
349

CARBON a Web application and a RESTful API for argumentation

Runge, Jakob 19 February 2018 (has links)
This thesis documents the development of Collaborative Argumentation Brought Online (CARBON). Collaborative Argumentation Brought Online (CARBON) aims to make abstract dialectical frameworks (ADFs) available via HTTP by providing a RESTful API and a JavaScript heavy application, that allows to use ADFs in a wiki context on top of that API. The thesis summarizes basic concepts of abstract argumentation using examples of Dung argumentation frameworks (AFs), bipolar argumentation frameworks (BAFs) and abstract dialectical frameworks (ADFs). The advantages of using Haskell as a programming language for server side software are demonstrated by discussing central concepts of functional programming and how these influenced the design or our solutions and simplified the creation of a RESTful API. It is described, how argumentation can be embedded in a wiki, and how a mapping between wiki articles and statements can be established to enable users to create new content while still being able to work with ADFs. To simplify the creation of acceptance conditions, a custom approach to proof standards is presented that allows to translate a bipolar argumentation framework (BAF) with proof standards into a ADF.
350

Wiederverwendung berechneter Matchergebnisse für MapReduce-basiertes Object Matching

Sintschilin, Sergej 19 February 2018 (has links)
Die Bachelorarbeit umfasst die Erweiterung des Projektes Dedoop. Dedoop stellt eine Reihe von Werkzeugen zur Verfügung, die das Finden von Duplikaten durch Object Matching-Ansätze in einer Datenmenge automatisieren. Das Object Matching geschieht auf der MapReduce-Plattform Hadoop. Mit Hilfe der entwickelten Erweiterung, ist es möglich das vollständige Neuberechnen an den Daten bei ihrer Änderung zu vermeiden. Das Verfahren geschieht in zwei Phasen. In der ersten Phase stellt man die Änderungen fest, die zwischen der alten Datenmenge und der neuen Datenmenge stattfanden. Die dabei gewonnenen Informationen werden in drei Kategorien unterteilt: Datensätze, die in der alten und in der neuen Datenmenge unverändert zu finden sind, Datensätze aus der neuen Quelle, die die Neuberechnung benötigen, und Datensätze aus der alten Quelle, die aus der Neuberechnung ausgeschlossen werden sollen. In der zweiten Phase wird das alte Object Matching, angewendet auf die aus der ersten Phase gewonnenen Teilmengen, wiederholt. Die für die Neuberechnung benötigten Datensätze sind die, die aktualisiert oder neueingefügt wurden. Deshalb liegen für sie noch keine Ergebnisse aus dem alten Object Matching vor. Diese Datensätze werden in der zweiten Phase gegeneinander und gegen die unverändert gebliebenen Datensätze gematcht. Die aus der Neuberechnung ausgeschlossen Datensätze sind die, die aktualisiert oder gelöscht wurden. Für sie liegen bereits Matchergebnisse vor, und deshalb müssen diese Ergebnisse von diesen Datensätzen bereinigt werden. Der Vorteil dieses Verfahrens liegt darin, dass man die unverändert gebliebenen Datensätze nicht noch einmal gegeneinander zu matchen braucht.

Page generated in 0.0157 seconds