• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3193
  • 1384
  • 480
  • 24
  • 5
  • 4
  • 1
  • Tagged with
  • 5071
  • 3728
  • 2830
  • 2817
  • 2817
  • 1863
  • 1727
  • 1724
  • 1709
  • 1707
  • 1197
  • 713
  • 698
  • 684
  • 678
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Eine Implementierung des Chi-Wertes

Kohl, Martin 26 October 2017 (has links)
Das hauptsächliche Untersuchungsobjekt der Arbeit ist die Möglichkeit der Konstruktion eines nichtkooperativen Spieles zu einem beliebigen kooperativen Spiel, dessen gleichgewichtige Auszahlung mit dem (gewichteten) x-Wert übereinstimmt. Dabei wird als Gleichgewichtsbegriff das teilspielperfekte Gleichgewicht gewählt. Diese Konstruktion wird als Implementierung des (gewichteten) x-Wertes bezeichnet.
302

Innere Regularität von Lösungen der p-Laplacegleichung

Kriener, Florian 26 October 2017 (has links)
Die folgenden Abschnitte bieten einen unvollständigen Einblick in verschiedene, für den Beweis des Satzes wichtige Themengebiete.Wir beschränken uns dabei auf ein paar wenige, ausgewählte Sätze (zudem meistens ohne Beweis), da eine ausführlichere Betrachtung den Rahmen dieser Arbeit sprengen würde, und verweisen statt dessen auf die zahlreichen einschlägigen Lehrbücher.
303

Konzeption und prototypische Implementierung einer Workflow Engine für dynamische Workflow-Adaptation

Dietzsch, Alexander 26 October 2017 (has links)
Das Thema Workflow-Management hat in den letzten Jahren stark an Bedeutung gewonnen, so dass es in der Zwischenzeit eine Reihe von Forschungsarbeiten gibt und auch verschiedene kommerzielle Workflow-Management-Systeme am Markt verfügbar sind. Ein Problem der meisten kommerziellen Systeme ist, dass sie zur Laufzeit nicht auf Ereignisse reagieren können und keine Möglichkeit bieten die Workflows zur Laufzeit an geänderte Bedingungen anzupassen. In vielen Anwendungsbereichen, wie der Medizin, ist dies aber von entscheidender Bedeutung. Im Rahmen des Projekts 'AgentWork' wird ein Workflow-Management-System entwickelt, dass die dynamische Adaptation der Workflows zur Laufzeit ermöglicht. Die vorliegende Arbeit befasst sich mit der Konzeption und prototypischen Implementierung einer Workflow Engine, die eine dynamische Unterbrechung der Workflows zur Laufzeit gestattet. Dies bildet die Grundlage für die anschließende Adaptation der Workflows.
304

Berechnung von Diff-Evolution-Mappings zwischen geänderten Produktkatalogen

Kropp, Henning 26 October 2017 (has links)
Auf dem Gebiet der Klinischen Studien sind präzise Begriffsdefinitionen äußerst wichtig, um eine objektive Datenerfassung und -auswertung zu gewährleisten. Zudem ermöglichen sie externen Experten die Forschungsergebnisse korrekt zu interpretieren und anzuwenden. Allerdings weisen viele Klinische Studien Defizite in diesem Punkt auf: Definitionen sind oft ungenau oder werden implizit verwendet. Außerdem sind Begriffe oft uneinheitlich definiert, obwohl standardisierte Definitionen im Hinblick auf einen weitreichenderen Austausch von Ergebnissen wünschenswert sind. Vor diesem Hintergrund entstand die Idee des Data Dictionary, dessen Ziel zunächst darin besteht, die Definitionsalternativen von Begriffen zu sammeln und Klinischen Studien zur Verfügung zu stellen. Zusätzlich soll die Analyse der Definitionen in Bezug auf ihre Gemeinsamkeiten und Unterschiede sowie deren Harmonisierung unterstützt werden. Standardisierte Begriffsdefinitionen werden jedoch nicht erzwungen, da die Unterschiede in Definitionen inhaltlich gerechtfertigt sein können, z.B. aufgrund der Verwendung in unterschiedlichen Fachgebieten, durch studienspezifische Bedingungen oder verschiedene Expertensichten. In der vorliegenden Arbeit wird ein Modell für das Data Dictionary entwickelt. Das entwickelte Modell folgt dem aus der Terminologie bekannten konzept-basierten Ansatz und erweitert diesen um die Möglichkeit der Repräsentation alternativer Definitionen. Insbesondere wird hierbei angestrebt, die Unterschiede in den Definitionen möglichst genau zu explizieren, um zwischen inhaltlich verschiedenen Definitionsalternativen (z.B. sich wider-sprechenden Expertenmeinungen) und konsistenten Varianten einer inhaltlichen Definition (z.B. verschiedene Sichten, Übersetzungen in verschiedene Sprachen) unterscheiden zu können. Mehrere Modellelemente widmen sich zudem der Explizierung von kontextuellen Informationen (z.B. der Gültigkeit innerhalb von Organisationen oder der Domäne zu der ein Konzept gehört), um die Auswahl und Wiederverwendung von Definitionen zu unterstützen. Diese Informationen erlauben verschiedene Sichten auf die Inhalte des Data Dictionary. Sichten werden dabei als kohärente Teilmengen des Data Dictionary betrachtet, die nur diejenigen Inhalte umfassen, die als relevant im ausgewählten Kontext spezifiziert sind.
305

A Model for a Data Dictionary Supporting Multiple Definitions, Views and Contexts

Kühn, Katrin 26 October 2017 (has links)
Auf dem Gebiet der Klinischen Studien sind präzise Begriffsdefinitionen äußerst wichtig, um eine objektive Datenerfassung und -auswertung zu gewährleisten. Zudem ermöglichen sie externen Experten die Forschungsergebnisse korrekt zu interpretieren und anzuwenden. Allerdings weisen viele Klinische Studien Defizite in diesem Punkt auf: Definitionen sind oft ungenau oder werden implizit verwendet. Außerdem sind Begriffe oft uneinheitlich definiert, obwohl standardisierte Definitionen im Hinblick auf einen weitreichenderen Austausch von Ergebnissen wünschenswert sind. Vor diesem Hintergrund entstand die Idee des Data Dictionary, dessen Ziel zunächst darin besteht, die Definitionsalternativen von Begriffen zu sammeln und Klinischen Studien zur Verfügung zu stellen. Zusätzlich soll die Analyse der Definitionen in Bezug auf ihre Gemeinsamkeiten und Unterschiede sowie deren Harmonisierung unterstützt werden. Standardisierte Begriffsdefinitionen werden jedoch nicht erzwungen, da die Unterschiede in Definitionen inhaltlich gerechtfertigt sein können, z.B. aufgrund der Verwendung in unterschiedlichen Fachgebieten, durch studienspezifische Bedingungen oder verschiedene Expertensichten. In der vorliegenden Arbeit wird ein Modell für das Data Dictionary entwickelt. Das entwickelte Modell folgt dem aus der Terminologie bekannten konzept-basierten Ansatz und erweitert diesen um die Möglichkeit der Repräsentation alternativer Definitionen. Insbesondere wird hierbei angestrebt, die Unterschiede in den Definitionen möglichst genau zu explizieren, um zwischen inhaltlich verschiedenen Definitionsalternativen (z.B. sich wider-sprechenden Expertenmeinungen) und konsistenten Varianten einer inhaltlichen Definition (z.B. verschiedene Sichten, Übersetzungen in verschiedene Sprachen) unterscheiden zu können. Mehrere Modellelemente widmen sich zudem der Explizierung von kontextuellen Informationen (z.B. der Gültigkeit innerhalb von Organisationen oder der Domäne zu der ein Konzept gehört), um die Auswahl und Wiederverwendung von Definitionen zu unterstützen. Diese Informationen erlauben verschiedene Sichten auf die Inhalte des Data Dictionary. Sichten werden dabei als kohärente Teilmengen des Data Dictionary betrachtet, die nur diejenigen Inhalte umfassen, die als relevant im ausgewählten Kontext spezifiziert sind.
306

Klassifikation mittels adaptiver Partitionierung

Sambale, Alexander 16 November 2017 (has links)
Diese Arbeit behandelt maschinelles Lernen und führt dabei von theoretischen Überlegungen zu Implementierungen, sowie deren Vergleich mit typischen Verfahren aus der Praxis. Nach einer kurzen Einführung in das Thema maschinelles Lernen wird der Hauptaugenmerk auf die binäre Klassifikation gelenkt. Dabei werden aufbauend auf der Wahrscheinlichkeitstheorie wichtige Begriffe wie Regressionsfunktion, Klassifikator, Bayes’scher Klassifikator, Risiko und zusätzliches Risiko eingeführt und auf deren Wechselwirkungen eingegangen. Das Ziel ist dann bei unbekannter Verteilung, anhand eines durch diese Verteilung entstanden Beobachtungsdatensatzes, einen Klassifikator zu finden, der das zusätzliche Risiko minimiert. Da die Verteilung unbekannt ist, kann man das zusätzliche Risiko nicht direkt berechnen und versucht es durch Aufspaltung in Schätz- und Näherungsfehler nach oben abzuschätzen. Das führt zur VC Dimension und einem Objekt, welches als Modulus bezeichnet wird. Unter gewissen Zusatzannahmen an die Verteilung, wie Randbedingungen und Zugehörigkeit zu einer Approximationsklasse, lässt sich dann die Abschätzung der Fehler bewerkstelligen. Jedoch sind die Parameter in diesen Bedingungen nicht bekannt und es stellt sich die Frage, wie man trotzdem eine möglichst günstige Abschätzung erhält. Das führt zu einer speziellen Modellwahl, die für den ausgewählten Klassifikator eine ebenso gute Schranke liefert, wie wenn man die Wahl unter Kenntnis der unbekannten Parameter treffen würde. Dieses Wissen wird dann auf dyadische Bäume und deren Partitionierungen angewendet. Darauf aufbauend wird ein Baumalgorithmus implementiert, der diese Modellauswahl benutzt und zusätzlich ein Vergleichsalgorithmus der ebenfalls dyadische Bäume gebraucht. Anschließend folgt eine Einführung in typische praxisrelevante Methoden zur Klassifizierung und der Vergleich mit den implementierten Verfahren mittels der Programmiersprache und Softwareumgebung für statistische Berechnungen R. Dabei liefern meist mehrere der gewöhnlicherweise verwendeten Verfahren sehr gute Ergebnisse. Außerdem zeigt sich, dass die dyadischen Bäume für niedrigdimensionale Probleme gute Ergebnisse erzielen und für hochdimensionale Problemstellungen sehr rechenintensiv und damit zeitintensiv werden. Insgesamt liefert die Diplomarbeit damit einen praxisnahen und theoretisch fundierten Einstieg in das Thema des maschinellen Lernens mit anwendungsorientierten Beispielen in der Programmiersprache R.
307

Dynamische Datenbankorganisation für multimediale Informationssysteme

Schlieder, Torsten 16 November 2017 (has links)
The topic of this thesis is a mathematically rigorous derivation of formulae for the magnetic force which is exerted on a part of a bounded magnetized body by its surrounding. Firstly, the magnetic force is considered within a continuous system based on macroscopic magnetostatics. The force formula in this setting is called Brown's force formula referring to W. F. Brown, who gave a mainly physically motivated discussion of it. This formula contains a surface integral which shows a nonlinear dependence on the normal. Brown assumes the existence of an additional term in the surface force which cancels the nonlinearity to allow an application of Cauchy's theorem in continuum mechanics to a magnetoelastic material. The proof of Brown's formula which is given in this work involves a suitable regularization of a hypersingular kernel and uses singular integral methods. Secondly, we consider a discrete, periodic setting of magnetic dipoles and formulate the force between a part of a bounded set and its surrounding. In order to pass to the continuum limit we start from the usual force formula for interacting magnetic dipoles. It turns out that the limit of the discrete force is different from Brown's force formula. One obtains an additional nonlinear surface term which allows one to regard Brown's assumption on the surface force as a consequence of the atomistic approach. Due to short range effects one obtains moreover an additional linear surface term in the continuum limit of the discrete force. This term contains a certain lattice sum which depends on a hypersingular kernel and the underlying lattice structure.
308

Automatische Ermittlung semantischer Zusammenhänge lexikalischer Einheiten und deren graphische Darstellung

Schmidt, Fabian 16 November 2017 (has links)
In verschiedenen Bereichen der Linguistik werden Kollokationen genutzt, beispielsweise als Unterstützung bei der Erstellung von Wörterbüchern oder bei der Übersetzung von Fachtexten. Umfangreiche Kollokationssammlungen können aufgrund ihrer Größe nicht manuell erstellt werden. Deshalb wurden in den letzten Jahren verschiedene Verfahren entwickelt, um die Kollokationssammlungen durch statistische Analyse maschinenlesbarer Textkorpora zu erzeugen. Neben guten Kandidaten ermitteln die meisten herkömmlichen Verfahren auch viele Wortpaare, deren Plausibilität nicht unmitttelbar ersichtlich ist. Darum wird in der vorliegenden Diplomarbeit ein neues, in der Abteilung für Automatische Sprachverarbeitung am Institut für Informatik der Universität unter Leitung von Dr. U. Quasthoff entwickeltes Verfahren zur Berechnung von Kollokationen vorgestellt. Aufbauend auf ein Repertoire der nun vorhandenen Kollokationen kann die Fragestellung nach semantischen Relationen zwischen lexikalischen Einheiten weiter ausgebaut werden. Die in dieser Arbeit eingeführten Kollokationen zweiter Ordnung verfolgen diesen Ansatz. Neben der automatischen Extraktion von Kollokationen stellt auch die adäquate Darstellung derselben ein noch nicht zufriedenstellend gelöstes Problem dar. Für die Visualisierung der im Wortschatzprojekt gefundenen Kollokationen wurde deshalb ein Verfahren entwickelt, das in der Lage ist, eine Menge von Kollokationen in einem Graphen ästhetisch ansprechend und übersichtlich darzustellen.
309

Implementierung der XPath-Anfragesprache für XML-Daten in RDBMS unter Ausnutzung des Nummerierungsschemas DLN

Schmidt, Oliver 16 November 2017 (has links)
XML-Dokumente haben sich in den letzten Jahren zu einem wichtigen Datenformat für die standardisierte Übertragung von vielfältigen Informationen entwickelt. Dementsprechend gibt es einen großen Bedarf nach Speicherlösungen für XML-Daten. Neben den nativen XML-Datenbanken bieten sich aber zunehmend auch relationale Datenbanksysteme mit unterschiedlichen Ansätzen für die Speicherung der Dokumente an. Die Art der Speicherung ist jedoch nur ein Aspekt der XML-Datenhaltung - die Anwender wollen auch mit ihren gewohnten XML-Schnittstellen auf die Daten zurückgreifen. Das XMLRDB-Projekt bietet dafür ein Nummerierungsschema für XML-Knoten an, welches es erlaubt, aus den in Relationen gespeicherten Daten Strukturinformationen zu gewinnen. In dieser Diplomarbeit werden diese Informationen für eine XPath-Schnittstelle in XMLRDB genutzt, welche dadurch in der Lage ist, XPath-Anfragen nach SQL zu konvertieren und effizient deren Lösungsmenge zu bestimmen. Für diese Schnittstelle werden verschiedene Verfahren für die Umsetzung der XPath-Strukturen vorgestellt. An Hand einer Implementierung wird gezeigt, wie die Fähigkeiten von unterschiedliche Datenbanksystemen gewinnbringend in das Schema integriert werden können. Mittels eines Benchmarks findet schließlich eine Analyse der XPath-Umsetzung hinsichtlich Effizienz und Performanz statt.
310

Entwicklung eines Data Warehouses zur Durchführung von Zitierungsanalysen

Schnerwitzki, Tino 16 November 2017 (has links)
In vergangenen Publikationen wurden bereits verschiedene Zitierungsanalysen durchgeführt. Jedoch stets auf unterschiedlichen Datenquellen, was einen direkten Vergleich der jeweiligen Ergebnisse verhindert. Ziel dieser Arbeit soll es sein, eine Grundlage zur flexiblen Durchführung von Zitierungsanalysen zu schaffen. Durch die Entwicklung eines Data Warehouses sollen verschiedene Datenquellen integriert und konsolidiert werden, um eine Vielfalt von Analyseperspektiven und Berechnungsverfahren auf einem einheitlichen Datenbestand zu ermöglichen. Dabei wird insbesondere auf die Besonderheiten bei der Nutzung von Webdatenquellen, als wie verschiedene Methoden zur Datenbereinigung eingegangen.

Page generated in 0.028 seconds