• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 20
  • 4
  • 1
  • Tagged with
  • 59
  • 33
  • 32
  • 31
  • 20
  • 20
  • 20
  • 11
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Einheitliches Konzept einer Kommunikationsschnittstelle zur systematischen Integration von Maschinendaten in den Prozessbereich von Product Lifecycle Management

Arndt, Stephan Günter 11 April 2022 (has links)
Die Prozesse aus der Betriebsphase von Maschinen beruhen vermehrt auf Daten, die durch fortschrittliche Technologien zur Datenerfassung, -verarbeitung und -kommunikation bereitgestellt werden. Die damit einhergehende, stetig anwachsende Menge maschinenrelevanter Daten bietet aus Sicht von Maschinenherstellern ein großes Optimierungspotenzial für sowohl aktuelle als auch zukünftige Maschinengenerationen und deren betriebsbegleitende Services. Vor diesem Hintergrund und entgegen vorrangig organisatorischer Informationsbarrieren auf Maschinenhersteller- und -betreiberseite ist es notwendig, die speziell für die Produktentstehung und bspw. die Instandhaltung relevanten Maschinendaten in den Prozessbereich von PLM systematisch zu integrieren. Zu diesem Zweck wird in dieser Dissertation das Feldkonzept als grundlegende Beschreibung einer Kommunikationsschnittstelle zur einheitlichen Integration von Maschinendaten vorgestellt. Die Datenintegration erfolgt virtuell und prozessunterstützt-reproduzierbar auf der Applikationsebene einer Feldmanagementplattform als Middleware sowie anhand einer Feldstruktur als Mapping-Grundlage. Die Feldstruktur dient der konsistenten Verknüpfung ausgewählter Produktstrukturinformationen mit Strukturinformationen von Maschinen aus deren Betriebsphase. Das als Feldmodell bezeichnete Integrationsergebnis dient als Vehikel zum Austausch ausgewählter und logisch in einem Datensatz gemeinsam strukturierter Produkt- und/oder Maschinendaten zu bspw. Analysezwecken. Mithilfe des Feldmodells lassen sich Maschinendaten dokumentbasiert im Produktdatenmanagement zu speichern.:1 Einleitung 2 Grundlagen 3 Arbeitsbereich 4 Das Feldkonzept 5 Grundprinzipien des Feldmanagementsystems 6 Validierung des Feldkonzepts 7 Zusammenfassung und Ausblick
12

Architekturen zur Datenintegration Gestaltungsempfehlungen auf der Basis fachkonzeptueller Anforderungen

Jung, Reinhard January 2005 (has links)
Zugl.: St. Gallen, Univ., Habil.-Schr., 2005
13

Verarbeitung ortsbezogener Anfragen in lose gekoppelten, föderierten Systemen Konzeption, Realisierung, Bewertung /

Schwarz, Thomas. January 2007 (has links)
Stuttgart, Univ., Diss., 2007.
14

Web-based named entity recognition and data integration to accelerate molecular biology research

Pafilis, Evangelos. January 2008 (has links)
Heidelberg, Univ., Diss., 2008. / Online publiziert: 2009.
15

Holistische Rahmenkonzeptionen zur Datenintegration : organisatorische Implikationen und Planung der Integration von Informations- und Produktionstechnologien in Industriebetrieben /

Welte, Gerhard. January 1995 (has links)
Humboldt-Universiẗat, Diss.--Berlin, 1995.
16

Architektur eines Datenintegrators zur durchgängigen Kopplung von verteilten numerischen Simulationen

Schilberg, Daniel January 2009 (has links)
Zugl.: Aachen, Techn. Hochsch., Diss., 2009
17

SEMEDA (semantic meta database) ontology based semantic integration of biological databases /

Köhler, Jacob. Unknown Date (has links) (PDF)
University, Diss., 2003--Bielefeld.
18

Adaptive windows for duplicate detection

Draisbach, Uwe, Naumann, Felix, Szott, Sascha, Wonneberg, Oliver January 2012 (has links)
Duplicate detection is the task of identifying all groups of records within a data set that represent the same real-world entity, respectively. This task is difficult, because (i) representations might differ slightly, so some similarity measure must be defined to compare pairs of records and (ii) data sets might have a high volume making a pair-wise comparison of all records infeasible. To tackle the second problem, many algorithms have been suggested that partition the data set and compare all record pairs only within each partition. One well-known such approach is the Sorted Neighborhood Method (SNM), which sorts the data according to some key and then advances a window over the data comparing only records that appear within the same window. We propose several variations of SNM that have in common a varying window size and advancement. The general intuition of such adaptive windows is that there might be regions of high similarity suggesting a larger window size and regions of lower similarity suggesting a smaller window size. We propose and thoroughly evaluate several adaption strategies, some of which are provably better than the original SNM in terms of efficiency (same results with fewer comparisons). / Duplikaterkennung beschreibt das Auffinden von mehreren Datensätzen, die das gleiche Realwelt-Objekt repräsentieren. Diese Aufgabe ist nicht trivial, da sich (i) die Datensätze geringfügig unterscheiden können, so dass Ähnlichkeitsmaße für einen paarweisen Vergleich benötigt werden, und (ii) aufgrund der Datenmenge ein vollständiger, paarweiser Vergleich nicht möglich ist. Zur Lösung des zweiten Problems existieren verschiedene Algorithmen, die die Datenmenge partitionieren und nur noch innerhalb der Partitionen Vergleiche durchführen. Einer dieser Algorithmen ist die Sorted-Neighborhood-Methode (SNM), welche Daten anhand eines Schlüssels sortiert und dann ein Fenster über die sortierten Daten schiebt. Vergleiche werden nur innerhalb dieses Fensters durchgeführt. Wir beschreiben verschiedene Variationen der Sorted-Neighborhood-Methode, die auf variierenden Fenstergrößen basieren. Diese Ansätze basieren auf der Intuition, dass Bereiche mit größerer und geringerer Ähnlichkeiten innerhalb der sortierten Datensätze existieren, für die entsprechend größere bzw. kleinere Fenstergrößen sinnvoll sind. Wir beschreiben und evaluieren verschiedene Adaptierungs-Strategien, von denen nachweislich einige bezüglich Effizienz besser sind als die originale Sorted-Neighborhood-Methode (gleiches Ergebnis bei weniger Vergleichen).
19

Schema matching and mapping based data integration architecture, approaches and evaluation

Do, Hong-Hai January 2006 (has links)
Zugl.: Leipzig, Univ., Diss., 2006
20

Architekturen zur Datenintegration : Gestaltungsempfehlungen auf der Basis fachkonzeptueller Anforderungen /

Jung, Reinhard. January 2006 (has links)
Universiẗat, Habil.-Schr., 2005--St. Gallen.

Page generated in 0.1323 seconds