• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3160
  • 1378
  • 480
  • 24
  • 5
  • 4
  • 1
  • Tagged with
  • 5032
  • 3689
  • 2791
  • 2778
  • 2778
  • 1833
  • 1697
  • 1694
  • 1679
  • 1677
  • 1176
  • 712
  • 686
  • 678
  • 672
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Hedging auf illiquiden binomialen Märkten

Näther, Maria 20 October 2017 (has links)
Neben Wertpapieren sind heutzutage auch Optionen von entscheidender Bedeutung. Das Ziel der vorliegenden Arbeit ist das Finden einer Strategie zur Absicherung des Verkaufes einer Option auf einem illiquiden binomialen Markt und die Bestimmung der dadurch entstehenden Superreplikationskosten. Es werden Barriere-, Europäische und Amerikanische Optionen betrachtet. Wir zeigen, dass das Verfahren der diskreten dynamischen Optimierung auf das Problem der Bestimmung der Superreplikationskosten übertragber ist. Auf dieser Grundlage wird ein Algorithmus entwickelt, mit dessen Hilfe sich die Superreplikationskosten auf einem Markt mit mehreren Zeitschritten bestimmen lassen. Ebenfalls werden die Auswirkungen von Transaktionskosten auf das Problem untersucht.
212

Kombinierte Visualisierung von EEG- und Diffusions-MRT-Nervenfaser-Daten

Müller, Cornelius 20 October 2017 (has links)
Ziel dieser Diplomarbeit ist die Entwicklung einer interaktiven Visualisierung von EEG-Daten und deren Quellen in Kombination mit Nervenfaserbündeldaten. Dazu soll als Softwaregrundlage das derzeit in Entwicklung befindliche OpenWalnut genutzt werden. Dabei handelt es sich um einen Softwarerahmen zur medizinischen Visualisierung mit Schwerpunkt auf die interaktive Darstellung von Gehirndaten. Die Darstellung und Selektion von Nervenfaserbündeln wurde darin bereits implementiert. Damit bietet es sich an, dieses System als Grundlage zu nehmen.
213

Ein Billardroboter: Praktische Realisierung von ausgewählten Konzepten der Robotik

Müller, Arnd 20 October 2017 (has links)
Die Arbeit beschreibt Konzipierung, Bau und Untersuchung eines Robotersystems, welches die grundlegenden Züge des Billardspiels beherrscht. Die Realisierung erfolgte in Form eines an die Charakteristika von mobilen Robotern angelehnten Fahrzeuges, welches sich auf einem Billardtisch bewegt und mit einer Art Queue Billardstöße ausführt. Alle Abläufe werden mit Hilfe einer über dem Tisch montierten Digitalkamera erfaßt und überwacht. Die Steuerung erfolgt durch einen Personalcomputer. Schwerpunkte der Arbeit bilden Probleme der Bilderkennung, Wegplanung und technischen Umsetzung. Die Lösung wurde mit Hilfe relativ einfacher technischer Mittel und geringem finanziellen Budget erstellt.
214

Reverse Engineering Methoden zur Rekonstruktion von Genregulationsnetzwerken aus Genexpressionsdaten

Müller, Antje 20 October 2017 (has links)
Neue Technologien auf dem Gebiet der Molekularbiologie ermöglichen es, das Expressionsverhalten mehrerer tausend Gene gleichzeitig zu untersuchen. Einen wichtigen Ansatz zur Analyse der dabei gewonnenen Genexpressionsdaten bilden Reverse Engineering Methoden. Sie versuchen, regulatorische Interaktionen zwischen den Genen aufzudecken und mit der Rekonstruktion des zugrundeliegenden genetischen Netzwerks das komplexe Zusammenspiel der Gene zu verstehen. Das Ziel der vorliegenden Arbeit ist es, einen umfassenden Überblick über diesen Ansatz der Datenanalyse zu vermitteln. Der erste Teil der Arbeit betrachtet zunächst die theoretischen Aspekte der Reverse Engineering Methoden, um so dem Leser eine praktische Anwendung zu erleichtern und ihm beim Verständnis ausgewählter Ansätze zu helfen. So werden in diesem ersten, theoretischen Teil mögliche genetische Netzwerkmodelle vorgestellt, welche zur Beschreibung der Genexpressions- und Genregulationsprozesse dienen, und verschiedene Reverse Engineering Algorithmen detailliert beschrieben, die die Parameter eines Netzwerkmodells mit Hilfe der gegebenen Expressionsdaten bestimmen und damit festlegen, zwischen welchen Komponenten des Netzwerks regulatorische Einflüsse bestehen. Aufgrund der Begrenzung derzeit bereitstehender Expressionsdaten sowohl in Bezug auf den Datenumfang als auch bezüglich der experimentell verfügbaren Datentypen � in der Regel sind nur die mRNA-Konzentrationen gegeben, denn diese sind wesentlich einfacher und genauer zu messen als die Protein-Konzentrationen �, muß bei der Definition eines Netzwerkmodells stark von der biologischen Realität abstrahiert werden. Weitere theoretische Überlegungen betreffen die Integration von Vorwissen als eine wichtige Strategie zur Unterstützung der Rekonstruktion eines genetischen Netzwerks. Alle vorgestellten Reverse Engineering Algorithmen wurden implementiert und können im zweiten, praktischen Teil dieser Arbeit ausführlich getestet werden. Zunächst erfolgen die Untersuchungen auf Basis von Simulationsdaten. Sie liefern wichtige Einblicke in das grundlegende Verhalten der Algorithmen in Abhängigkeit von verschiedenen Eigenschaften des zu rekonstruierenden Netzwerks und der verfügbaren Daten. Ein Anwendungsbeispiel testet schließlich alle Reverse Engineering Methoden auch an realen Expressionsdaten. Es vermittelt so abschließend einen Eindruck davon, inwieweit die auf abstrakten Netzwerkmodellen basierenden Reverse Engineering Methoden die Identifizierung von regulatorischen Einflüssen aus derzeit verfügbaren Expressionsdaten überhaupt ermöglichen und verdeutlicht die Probleme bei der praktischen Anwendung der Methoden.
215

Spezifikation und Implementation virtueller Räume in einer Java-basierten Verteilungsumgebung im WWW

Müller, Andreas 20 October 2017 (has links)
Die Virtual Modelling Language (kurz VRML) ist der Standard für die Darstellung dreidimensionaler Objekte und Welten im Internet. Bereits heute sind unzählige Modelle realer und fiktiver Szenen im WWW zu finden welche mittels VRML erzeugt worden sind. Da VRML weder lizensiert noch plattformgebunden ist stehen eine relativ große Anzahl von VRML-Browsern und Plugins zur Verfügung um diese Welten besuchen zu können. Obwohl der aktuelle Standard 2.0 noch keine Vernetzung virtueller Welten vorsieht, gibt es heute bereits eine ganze Anzahl dreidimensionaler Chatrooms, welche dem Benutzer neben einer virtuellen Umgebung (Gebäude, Landschaft etc.) auch einen virtuellen Vertreter, genannt Avatar, zur Verfügung stellen, welcher den Benutzer in der virtuellen Welt repräsentiert. Die meisten dieser Welten nutzen die von VRML bereitgestellten Schnittstellen für höhere Programmiersprachen, um diese Vernetzung zu realisieren. Die Diplomarbeit stellt einige dieser Konzepte, wie Living Worlds und Open Community, vor und erläutert die dabei auftretenden Probleme bei der Realsierung und Implementation. Davor wird auf die wichtigsten Elemente, Strukturen und Standardschnittstellen von VRML eingegangen und einige der am häufigsten verwendeten VRML Browser vorgestellt. Den Hauptteil der Arbeit bildet die Vorstellung eines virtuellen Chatroom welcher im Rahmen der Diplomarbeit entwickelt und mittels Java und VRML implementiert wurde. Java stellt dabei die zur Vernetzung der Clients notwendigen Sockets bereit, für das textbasierte Chatapplet wurde ein bereits vorhandenes, frei verfügbares System (VNET) in die Arbeit integriert. Als virtuelle Umgebung wurde ein Abbild der 5. Etage des Uni-Hauptgebäudes in VRML modelliert und steht nun u.a. für Praktikas als virtuelle Lernumgebung zur Verfügung
216

Kartenfärbung auf Flächen höheren Geschlechts

Moll, Benjamin 20 October 2017 (has links)
Auf politischen Landkarten werden für gewöhnlich aneinandergrenzende Länder mit unterschiedlichen Farben gefärbt. Allerdings haben durchaus verschiedene Länder die gleiche Farbe, wenn sie keine gemeinsame Grenze haben. Doch wie viele verschiedene Farben benötigt man mindestens, um eine Karte nach diesen Regeln zu färben? Die beiden Mathematiker Appel und Haken haben gezeigt, dass für jede Landkarte in der Ebene immer vier Farben ausreichen. Dieser Beweis kommt allerdings nicht ohne intensiven Computereinsatz aus.
217

Modellierung von Reverse Engineering Strategien zur Identifizierung genetischer Netzwerke aus unvollständigen Genexpressionsdate

Missal, Kristin 20 October 2017 (has links)
Genetische Netzwerke zeigen wie Gene über ihre Produkte wieder andere Gene regulieren. Sind die Netzwerktopologie und die Art der Einflüsse bekannt, können Vorhersagen über das dynamische Verhalten der individuellen genetischen Expression von Zellen getroffen werden. Mögliche Modelle für genetische Netzwerke sind Boolesche Netze und Dynamische Bayessche Netze. Genregulationsnetzwerke zu analysieren und zu verstehen, ist auf einer abstrakten Ebene mit Hilfe eines Computers und dieser Modelle möglich. In der vorliegenden Arbeit wird auf der Basis von in-silico Experimenten analysiert, wie ein Modell für genetische Netzwerke aus Genexpressionsdaten von einzelnen Zellen gelernt werden kann, wenn nur unvollständiges Wissen über die initialen Genexpressionszustände vorliegt. Der initiale Expressionszustand wird unvollständig festgelegt, indem die Expressionsstärke einiger Gene gezielt manipuliert wird. Boolesche Netze repräsentieren das genetische Netzwerk der in-silico Zellen. Ihre Regeln sind deterministischer Art und sind bei vollständig gegebenen Daten mit dem Reverse Engineering Algorithmus REVEAL einfach rekonstruierbar. REVEAL hat keinen Ansatz für unbeobachtete Werte in den Daten. Es wird gezeigt, dass die Inputelemente und Booleschen Regeln für Elemente lernbar sind, deren Anzahl an Inputelementen kleiner oder gleich der manipulierbaren Gene ist. Durch Rauschen in den Daten ist es jedoch unmöglich deterministische Beziehungen korrekt zu charakterisieren. Deshalb wird angestrebt, aus den künstlichen Expressionsdaten ein Dynamisch Bayessches Netz zu lernen. Es modelliert die verbleibende Unsicherheit über die Abhängigkeiten in dem genetischen Netzwerk. Eine Analyse des Verfahrens Strukturelle Erwartungswert Maximierung (SEM) ergab, dass die fehlenden Beobachtungen umgangen werden müssen. Eine getrennte Auswertung der Experimente, die sich in den manipulierten Genen unterscheiden, ist ein Weg ein gutes Modell zu lernen, wenn mindestens zwei Gene gleichzeitig manipulierbar sind. Kann die Expressionsstärke nur von einem Gen festgelegt werden, sind mit dieser Strategie die regulierenden Gene identifizierbar, die unabhängig von den anderen regulierenden Genen den Expressionszustand des Zielgens wesentlich bestimmen. Qualitatives Vorwissen über das interessierende genetische Netzwerk kann eine umfangreiche Verringerung des notwendigen Stichprobenumfangs herbeiführen.
218

Formal Specification and Verification of Knowledge and its Application

Miarka, Ralph 20 October 2017 (has links)
Software muß zuverlässiger werden. Es ist allgemein anerkannt, daß formale Methoden, sofern sie richtig angewandt werden, die Sicherheit und Stabilität von Software verbessern können. Jedoch werden formale Methoden noch selten für industrielle Projekte genutzt. Das Ziel dieser Arbeit ist die Untersuchung, ob und wie Methoden, Werkzeuge und Ergebnisse aus dem Bereich der Wissensrepr äsentation auf das Gebiet der formalen Spezifikation übertragen werden können. Zuerst vergleichen wir Ziele, Konzepte und Probleme der Wissenrepräsentation mit denen der formalen Spezifikation. Danach untersuchen wir einige Eigenschaften von Spezifikationen und Wissensbasen, wie zum Beispiel Konsistenz, Vollständigkeit und Korrektheit. Weiterhin betrachten wir ein Werkzeug zur Spezifikation von wissensbasierten Systemen, welches selbst ein Wissensrepräsentationssystem ist. Abschließend ordnen wir diese Arbeit in die Standard Siemens Entwicklungsmethode (stdSEM) ein.
219

Re-pair for Trees

Mennicke, Roy 20 October 2017 (has links)
We introduce a new linear time compression algorithm, called 'Repair for Trees', which compresses ordered trees over a ranked alphabet using linear straight-line context-free tree grammars. Such grammars generalize straight-line context-free string grammars and allow basic tree operations, like traversal along edges, to be executed without prior decompression. Our algorithm can be considered as a generalization of the 'Re-pair' algorithm developed by N. Jesper Larsson and Alistair Moffat in 2000. The latter algorithm is a dictionary-based compression algorithm for strings. We also introduce a succinct coding which is specialized in further compressing the grammars generated by our algorithm. Thisis accomplished without loosing the ability do directly execute queries on this compressed representation of the input tree. Finally, we compare the grammars and output files generated by a prototype of the Re-pair for Trees algorithm with those of similar compression algorithms. The obtained results show that that our algorithm outperforms its competitors in terms of compression ratio, runtime and memory usage.
220

ISLE: Konzeption und Realisierung eines verteilten XML-basierten Informationssystems

Melnik, Sergej 20 October 2017 (has links)
Die rasante Entwicklung von XML (eXtensible Markup Language) als neue Web-Sprache eröffnet weitreichende Möglichkeiten zur flexiblen Realisierung von verteilten Informationssystemen. Diese Diplomarbeit beschreibt den grundlegenden Aufbau und die Erfahrungen, die bei der Entwicklung eines universitären Informationssystems auf der Basis von XML gesammelt wurden. Das Resource Description Framework (RDF) wurde dabei als konzeptuelle Grundlage zur Datenmodellierung eingesetzt. Zur Manipulation von XML-Dokumenten wurde eine CORBA-basierte Schnittstelle verwendet. Durch eine zur Zeit noch kaum in der Praxis eingesetzte Technologie-Kombination konnten viele Schwierigkeiten heutiger Informationssysteme mit vergleichsweise geringem Aufwand umgangen werden. Das Datenmodell wird durch eine XML-basierte Speicherungsorganisation realisiert. Die Daten werden transparent im WWW verteilt, der Zugriff darauf erfolgt mittels des HTTP-Protokolls. Dadurch daß die in XML semantisch ausgezeichneten Informationsobjekte maschinell verarbeitet werden können, lassen sich aus dieser verteilten Datenstruktur alle benötigten Informationen extrahieren und für eine detaillierte Recherche aufbereiten. Weiterhin verfügen die Daten über einen hohen Grad der Wiederverwendbarkeit und lassen sich beispielsweise zur automatischen Generierung von Dokumenten und zur Archivierung in einer digitalen Bibliothek einsetzen. Für die Präsentation der Informationen ist ein Java-Modul zuständig, das die Interpretation und Formatierung der XML-Daten direkt vom Client-Rechner aus, entsprechend den benutzerspezifischen Präferenzen, ermöglicht, die ebenfalls in Form einer XML-Datei im lokalen Dateisystem des Nutzers gespeichert werden können. Durch die Verlagerung der Datenmanipulierung auf den Client wird die Server-Last minimiert. Ein ebenfalls in Java realisierter Server für XML-Dokumente ermöglicht die Client-basierte Bearbeitung von Dokumenten über eine CORBA-Schnittstelle. Mehrere Benutzer mit unterschiedlichen Zugriffsrechten können somit gemeinsam XML-Dokumente durch ein Web-Browser-Interface editieren. Die Diplomarbeit geht darauf ein, welche Vorteile und Probleme die Verwendung von XML und der verteilten Architektur aufgeworfen hat, und stellt die grundlegenden Prinzipien und Techniken vor, die dabei eingesetzt wurden.

Page generated in 0.025 seconds