• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 131
  • 25
  • 4
  • 1
  • 1
  • 1
  • Tagged with
  • 314
  • 230
  • 151
  • 141
  • 135
  • 135
  • 54
  • 35
  • 34
  • 30
  • 28
  • 24
  • 22
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

User-centric privacy a usable and provider-independent privacy infrastructure

Kolter, Jan Paul January 2009 (has links)
Zugl.: Regensburg, Univ., Diss., 2009
62

Ein Standard-File für 3D-Gebietsbeschreibungen

Lohse, Dag 12 September 2005 (has links) (PDF)
Es handelt sich hierbei um die Dokumentation eines Dateiformats zur Beschreibung dreidimensionaler FEM-Gebiete in Randrepräsentation. Eine interne Datenbasis dient als Verbindung zwischen externem Dateiformat und verschiedenen verarbeitenden Programmen.
63

Schema matching and mapping-based data integration

Do, Hong-Hai 19 October 2017 (has links)
Schema matching aims at identifying semantic correspondences between elements of two schemas, e.g., database schemas, ontologies, and XML message formats. It is needed in many database applications, such as integration of web data sources, data warehouse loading and XML message mapping. In today's systems, schema matching is manual; a time-consuming, tedious, and error-prone process, which becomes increasingly impractical with a higher number of schemas and data sources to be dealt with. To reduce the amount of manual effort as much as possible, approaches to semi-automatically determine element correspondences are required.
64

Selbstadaptierendes Suchverfahren in leichtgewichtigen XML-Datenbanken semistrukturierter Daten

Hotzky, Colin 26 October 2017 (has links)
Das in dieser Arbeit entwickelte selbstadaptierende Suchverfahren in leichtgewichtigen XML-Datenbanken semistrukturierter Daten berücksichtigt gegenüber anderen Konzepten in starkem Maße die Historie bereits gestellter Anfragen. Die Arbeit beginnt mit einer Einführung über leichtgewichtige XML-Datenbanken und XML. Weiterhin werden alle zum Zeitpunkt der Erstellung bekannten XML-Anfragesprachen untersucht. Der zweite Teil der Arbeit befaßt sich mit dem theoretischen Entwurf des Verfahrens. Es wurde ein Indexfile-Konzept entwickelt, das aufgrund der Protokollierung der Pfadtupel und Suchdauer bereits gestellter Anfragen eine Indexdatenbank erzeugt. Dadurch können die Suchzeiten bei wiederholten oder ähnlichen Anfragen deutlich reduziert werden. Der letzte Teil der Arbeit evaluiert das in Perl geschriebene System bezüglich seiner Performance bei unterschiedlichen leichtgewichtigen XML-Datenbanken.
65

Konzeption und Entwicklung eines plattformunabhängigen Tools zum netzwerkweiten Daten-Management und anwendungsspezifische Erpro

Trautmann, Sven 20 November 2017 (has links)
In dieser Arbeit auf die Probleme beim Daten-Management in heterogenen Netzwerken eingegangen Deshalb wird: - eine Situationsanalyse für das Daten-Management vorgenommen, - der Datenfluss beim Daten-Management in heterogenen Netzwerken analysiert, - die Aufgaben eines Daten-Management-Systems bestimmt, - benutzbare Standards zu verglichen, - alternative Verfahren zu diskutieren, - eine Konzeption für ein Daten-Management-System entwickelt, - die Konzetion in ein lauffähiges Programm umzusetzen und - dieses an Beispielen zu erproben. Ein weiteres Augenmerk liegt auf der Untersuchung der Eignung der plattformunabhängigen Programmiersprache JAVA für den Einsatz in größeren Software-Projekten.
66

Medi-Matcher: Matching von Medikamentennamen in Form von Freitexteingaben im Kontext von LIFE

Trabandt, Julia 27 February 2018 (has links)
In vielen Krankenhäusern, Apotheken, Arztpraxen und Forschungsinstituten werden Informationen zu Medikamenten mithilfe verschiedener Software digital verwaltet. In Deutschland existiert bisher keine einheitliche Norm für Medikamentennamen. Stattdessen wird eine Vielzahl an Synonymen und Beschreibungen für ein einziges Medikament verwendet. Erschwerend kommt hinzu, dass jede medizinische Einrichtung autonom über die, zur Medikamentenverwaltung verwendete Software entscheidet. Dadurch ist die Zusammenführung von Daten aus verschiedenen Systemen schwierig. Um die Datenintegration und den Datenaustausch zu verbessern, muss die Heterogenität der Daten reduziert werden. In Deutschland existieren verschiedene Arzneimittelverzeichnisse wie die Rote Liste [Gmb14], die Gelbe Liste [Med15], der GKV-Arzneimittelindex [dAW15, dAW13] oder Pharm-Net [fMDuID14]. Es wird aber auch auf einige europäische Medikamentendatenbanken wie den Human Mutual Recognition Index [fAuM14] oder den European Medicines Agency [Age15] und sogar amerikanische Standards wie die RxNorm [NZK+11] zurückgegriffen. Immer populärer wird auch die Nutzung von Websites wie mediguard.org um Informationen zu Medikamenten abzurufen. Einen einheitlichen Standard gibt es jedoch nicht. Dies hat zur Folge, dass im Kontext von Studien und Dokumentationen zur Medikamenteneinnahme in Arztpraxen und Apotheken große Mengen an Informationen aufgenommen werden, die jedoch untereinander nicht kompatibel sind. Um mehrere dieser Datenquellen gewinnbringend nutzen zu können, ist es erforderlich die verschiedenen Synonyme der Medikamentennamen abzugleichen und sich auf eine Norm festzulegen. In dieser Arbeit wird auf die Probleme beim Daten-Management in heterogenen Netzwerken eingegangen Deshalb wird: - eine Situationsanalyse für das Daten-Management vorgenommen, - der Datenfluss beim Daten-Management in heterogenen Netzwerken analysiert, - die Aufgaben eines Daten-Management-Systems bestimmt, - benutzbare Standards zu vergleichen, - alternative Verfahren zu diskutieren, - eine Konzeption für ein Daten-Management-System entwickelt, - die Konzetion in ein lauffähiges Programm umzusetzen und - dieses an Beispielen zu erproben. Ein weiteres Augenmerk liegt auf der Untersuchung der Eignung der plattformunabhängigen Programmiersprache JAVA für den Einsatz in größeren Software-Projekten.
67

DARIAH-DE: Forschungsinfrastrukturen für die eHumanities

Neuroth, Heike 20 September 2012 (has links)
Tradition von Bibliotheken ist es, die Forschung und ihre Prozesse zu unterstützen, durch die Aufbereitung, Bereitstellung und Langzeitsicherung von Information sowie durch die Unterstützung bei der Suche nach Daten und Quellen. Während es in vergangenen Zeiten dabei hauptsächlich um gedruckte Zeitschriften oder Bücher ging, werden heute und in Zukunft digitale Texte und Objekte wie Bild-, Audio- oder Videoangebote vermehrt zum Gegenstand der Forschung und rücken damit auch mehr in den Fokus von (wissenschaftlichen) Bibliotheken. Somit besteht ein direkter Zusammenhang zwischen den Veränderungsprozessen in der Forschung und dem Aufgabenprofil von wissenschaftlichen Bibliotheken. Werden die veränderten Forschungsprozesse in einzelnen wissenschaftlichen Disziplinen näher betrachtet, so hilft dies, die neuen Herausforderungen wissenschaftlicher Bibliotheken besser zu verstehen.
68

Comparison of refractivity profiles derived by Radiosonde soundings and GNSS tomography

Brecht, A., Raabe, A., Bender, M. 28 September 2017 (has links)
By tomography of GNSS slant delay data the refractivity fields of the atmosphere can be reconstructed. The resolution of the tomography field is about 40 km in horizontal and several 100 m in vertical direction. In 2009 about 270 GNSS stations were available in Germany. The tomographically reconstructed humidity fields have to be validated with other observation methods which are able to detect the refractivity profiles of the atmosphere. The data used to compare is from radiosonde soundings, by which the refractivity can be calculated. The first results of the comparison of GNSS data with radiosonde data from two radiosonde stations in Germany are shown.
69

Grenzüberschreitende Datenübermittlungen international tätiger Unternehmen : nach Maßgabe der Europäischen Datenschutzrichtlinie 95/46/EG /

Weniger, Robert. January 2005 (has links) (PDF)
Univ., Diss.--Trier, 2004. / Literaturverz. S. 559 - 597.
70

Netzorientierte Fuzzy-Pattern-Klassifikation nichtkonvexer Objektmengenmorphologien / Fuzzy pattern classification of nonconvex data inherent structures a classifier-network oriented approach

Hempel, Arne-Jens 29 September 2011 (has links) (PDF)
Die Arbeit ordnet sich in das Gebiet der unscharfen Klassifikation ein und stellt im Detail eine Weiterführung der Forschung zur Fuzzy-Pattern-Klassifikation dar. Es handelt sich dabei um eine leistungsfähige systemtheoretische Methodik zur klassifikatorischen Modellierung komplexer, hochdimensionaler, technischer oder nichttechnischer Systeme auf der Basis von metrischen Messgrößen und/oder nichtmetrischen Experten-Bewertungen. Die Beschreibung der Unschärfe von Daten, Zuständen und Strukturen wird hierbei durch einen einheitlichen Typ einer Zugehörigkeitsfunktion des Potentialtyps realisiert. Ziel der Betrachtungen ist die weiterführende Nutzung des bestehenden Klassenmodells zur unscharfen Beschreibung nichtkonvexer Objektmengenmorphologien. Ausgehend vom automatischen datengetriebenen Aufbau der konvexen Klassenbeschreibung, deren vorteilhaften Eigenschaften sowie Defiziten wird im Rahmen der Arbeit eine Methodik vorgestellt, die eine Modellierung beliebiger Objektmengenmorphologien erlaubt, ohne das bestehende Klassifikationskonzept zu verlassen. Kerngedanken des Vorgehens sind: 1.) Die Aggregation von Fuzzy-Pattern-Klassen auf der Basis so genannter komplementärer Objekte. 2.) Die sequentielle Verknüpfung von Fuzzy-Pattern-Klassen und komplementären Klassen im Sinne einer unscharfen Mengendifferenz. 3.) Die Strukturierung des Verknüpfungsprozesses durch die Clusteranalyse von Komplementärobjektmengen und damit der Verwendung von Konfigurationen aus komplementären Fuzzy-Pattern-Klassen. Das dabei gewonnene nichtkonvexe Fuzzy-Klassifikationsmodell impliziert eine Vernetzung von Fuzzy-Klassifikatoren in Form von Klassifikatorbäumen. Im Ergebnis entstehen Klassifikatorstrukturen mit hoher Transparenz, die - neben der üblichen zustandsorientierten klassifikatorischen Beschreibung in den Einzelklassifikatoren - zusätzliche Informationen über den Ablauf der Klassifikationsentscheidungen erfassen. Der rechnergestützte Entwurf und die Eigenschaften der entstehenden Klassifikatorstruktur werden an akademischen Teststrukturen und realen Daten demonstriert. Die im Rahmen der Arbeit dargestellte Methodik wird in Zusammenhang mit dem Fuzzy-Pattern-Klassifikationskonzept realisiert, ist jedoch aufgrund ihrer Allgemeingültigkeit auf eine beliebige datenbasierte konvexe Klassenbeschreibung übertragbar. / This work contributes to the field of fuzzy classification. It dedicates itself to the subject of "Fuzzy-Pattern-Classification", a versatile method applied for classificatory modeling of complex, high dimensional systems based on metric and nonmetric data, i.e. sensor readings or expert statements. Uncertainties of data, their associated morphology and therewith classificatory states are incorporated in terms of fuzziness using a uniform and convex type of membership function. Based on the properties of the already existing convex Fuzzy-Pattern-Class models and their automatic, data-driven setup a method for modeling nonconvex relations without leaving the present classification concept is introduced. Key points of the elaborated approach are: 1.) The aggregation of Fuzzy-Pattern-Classes with the help of so called complementary objects. 2.) The sequential combination of Fuzzy-Pattern-Classes and complementary Fuzzy-Pattern-Classes in terms of a fuzzy set difference. 3.) A clustering based structuring of complementary Fuzzy-Pattern-Classes and therewith a structuring of the combination process. A result of this structuring process is the representation of the resulting nonconvex fuzzy classification model in terms of a classifier tree. Such a nonconvex Fuzzy-Classifier features high transparency, which allows a structured understanding of the classificatory decision in working mode. Both the automatic data-based design as well as properties of such tree-like fuzzy classifiers will be illustrated with the help of academic and real word data. Even though the proposed method is introduced for a specific type of membership function, the underlying idea may be applied to any convex membership function.

Page generated in 0.0641 seconds