• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 168
  • 55
  • Tagged with
  • 223
  • 223
  • 175
  • 110
  • 110
  • 100
  • 51
  • 50
  • 47
  • 29
  • 23
  • 23
  • 23
  • 22
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Early Cognitive Vision: Feedback Mechanisms for the Disambiguation of Early Visual Representation / Frühe kognitive Wahrnehmung: Feedback Mechanismen für die Disambiguation von früher visueller Repräsentation

Pugeault, Nicolas 15 January 2008 (has links)
No description available.
12

Algorithmen im Wirkstoffdesign

Thimm, Martin 31 January 2006 (has links)
Die Bestimmung der Ähnlichkeit von molekularen Strukturen und das Clustern solcher Strukturen gemäß Ähnlichkeit sind zwei zentrale Fragen im Wirkstoffdesign. Die Arbeit beschreibt im ersten Teil zwei neue Verfahren zum Vergleich von Molekülen auf 3-dimensionale Ähnlichkeit. Der erste Algorithmus benutzt als Eingabe nur die Koordinaten der Atome der zu vergleichenden Moleküle. Wir können zeigen, daß eine rein geometrische Zielfunktion in der Lage ist, Wirkungsähnlichkeit von Substanzen vorherzusagen, und daß der Algorithmus geeignet ist, Ähnlichkeiten zu finden, die mit bisherigen, einfacheren Methoden nicht gefunden werden konnten. Das zweite Verfahren nutzt zusätzlich noch die Bindungsstruktur der Eingabemoleküle. Es ist flexibel, d.h. alle Konformere der Moleküle werden simultan behandelt. Wir erhalten ein sehr schnelles Verfahren, das bei geeigneter Parametereinstellung auch beweisbar optimale Lösungen liefert. Für praktisch relevante Anwendungen erreichen wir erstmals Laufzeiten, die selbst das Durchsuchen großer Datenbanken ermöglichen. Im zweiten Teil beschreiben wir zwei Methoden, eine Menge von molekularen Strukturen so zu organisieren, daß die Suche nach geometrisch ähnlichen deutlich schneller durchgeführt werden kann als durch lineare Suche. Nach Analyse der Daten mit graphentheoretischen Methoden finden hierarchische Verfahren und repräsentantenbasierte Ansätze ihre Anwendung. Schließlich geben wir einen neuen Algorithmus zum Biclustern von Daten an, einem Problem, das bei der Analyse von Genexpressionsdaten eine wichtige Rolle spielt. Mit graphentheoretischen Methoden konstruieren wir zunächst deterministisch Obermengen von Lösungen, die danach heuristisch ausgedünnt werden. Wir können zeigen, daß dieser neue Ansatz bisherige, vergleichbare z.T. deutlich überbietet. Seine prinzipielle Einfachheit läßt anwendungsbezogene Modifikationen leicht zu. / Two important questions in drug design are the following: "How to compute the similarity of two molecules?" and "How to cluster molecules by similarity?" In the first part we describe two different approaches to compare molecules for 3D-similarity. The first algorithm just uses the 3D coordinates of the atoms as input. We show that this algorithm is able to detect similar activity or similar adverse reaction, even with a simple purely geometry based scoring function. Compared to previous simpler approaches more interesting hits are found. The connectivity structures of the molecular graphs are used by the second algorithm as additional input. This fully flexible approach -- conformers of the molecules are treated simultaneously -- may even find provably optimal solutions. Parameter settings for practically relevant instances allow running times that make it possible to even search large databases. The second part describes two methods to search a database of molecular structures. After analyzing the data with graph theoretical methods two algorithms for two different ranges of similarity are designed. Scanning the database for structures similar to a given query can be accelerated considerably. We use hierarchical methods and dominating set techniques. Finally we propose a new biclustering algorithm. Biclustering problems recently appeared mainly in the context of analysing gene expression data. Again graph theoretical methods are our main tools. In our model biclusters correspond to dense subgraphs of certain bipartite graphs. In a first phase the algorithm deterministically finds supersets of solution candidates. Thinning out these sets by heuristical methods leads to solutions. This new algorithm outperforms former comparable methods and its simple structure make it easy to customize it for practical applications.
13

Constraint based world modeling for multi agent systems in dynamic environments

Göhring, Daniel 03 December 2009 (has links)
Die mobile Robotik stellt ein sehr junges und komplexes Forschungsfelder unserer Zeit dar. Innerhalb der letzten Jahrzehnte wurde es Robotern möglich, sich innerhalb ihrer Umgebung zu bewegen, zu navigieren und mit ihrer Umwelt zu interagieren. Aufgrund der Tatsache, dass die Welt von Unsicherheit geprägt ist und ein Roboter immer nur partielle Information über sie erhalten kann, wurden probabilistische Navigationsverfahren entwickelt, mit denen sich Roboter lokalisieren und Objekte ihrer Umgebung modellieren können. Weiterhin wurden in letzter Zeit Verfahren untersucht, die die kooperative Exploration der Umgebung durch eine Gruppe von Robotern zum Ziel haben. In der vorliegenden Arbeit wird ein neuartiges Konzept, welches sich Perzeptrelationen für die kooperative Umweltmodellierung zu Nutze macht, vorgestellt und evaluiert. Einen zweiten Beitrag der Arbeit stellen constraintbasierte Lokalisierungstechniken dar, die es einem oder mehreren Robotern auf effiziente Art und Weise ermöglichen, sich zu lokalisieren und ihre Umwelt zu modellieren. / Mobile autonomous robotics is a very young and complex field of research. Only in recent decades have robots become able to explore, to move, navigate and to interact with their environment. Since the world is uncertain and since robots can only gain partial information about it, probabilistic navigation algorithms have become very popular whenever a robot has to localize itself or surrounding objects. Furthermore, cooperative exploration and localization approaches have become very relevant lately, as robots begin to act not just alone but in groups. Within this thesis a new approach using the concept of spatial percept-relations for cooperative environment modeling is presented and evaluated. As a second contribution, constraint based localization techniques will be introduced for having a robot or a group of robots efficiently localized and to model their environment.
14

Untere Schranken für Steinerbaumalgorithmen und die Konstruktion von Bicliquen in dichten Graphen

Kirchner, Stefan 02 September 2008 (has links)
Die vorliegende Arbeit besteht aus zwei Teilen. Der erste Teil der Arbeit befasst sich mit unteren Schranken für approximative Steinerbaumalgorithmen. Ein Steinerbaum ist ein kürzester Teilgraph, der eine gegebene Teilmenge der Knoten eines Graphen spannt. Das Berechnen eines Steinerbaumes ist ein klassisches NP-schweres Problem, und es existieren mehrere Approximationsalgorithmen, wobei bei den meisten Algorithmen die Approximationsgüte nur durch untere und obere Schranken eingegrenzt werden kann. Für einige dieser Algorithmen werden in dieser Arbeit Instanzen vorgestellt, welche die unteren Schranken verbessern. Für den Relativen Greedy Algorithmus wird außerdem ein Verfahren vorgestellt, mit dem die Güte des Algorithmus eingeschränkt auf die Graphenklasse mit k Terminalen auf einen beliebigen Faktor genau bestimmt werden kann. Der zweite Teil der Arbeit widmet sich vollständig bipartiten Subgraphen mit gleicher Partitionsgrößse, sogenannten balancierten Bicliquen. Seit langem ist bekannt, dass in dichten bipartiten Graphen balancierte Bicliquen mit Omega(log(n)) Knoten existieren, aber es ist unbekannt, ob und wie diese in polynomieller Zeit konstruiert werden können. Der zweite Teil liefert dazu einen Beitrag, indem ein polynomieller Algorithmus vorgestellt wird, der in hinreichend großen dichten bipartiten Graphen eine balancierte Biclique mit Omega(sqrt(log(n))) Knoten konstruiert. / This thesis consists of two parts. The first part is concerned with lower bounds for approximating Steiner trees. The Steiner tree problem is to find a shortest subgraph that spans a given set of vertices in a graph and is a classical NP-hard problem. Several approximation algorithms exist, but for most algorithms only lower and upper bounds for the approximation ratio are known. For some of these algorithms we present instances which improve the lower bounds. When the problem is restricted to the class of graphs with k terminals, we also present a method which can be used to determine the approximation ratio of the Relative Greedy Algorithm with arbitrary precision. The second part is about balanced bicliques, i.e. complete bipartite subgraphs with equal partition sizes. It has been known for a long time that every dense bipartite graph contains a balanced biclique of size Omega(log(n)), but whether and how such a biclique can be constructed in polynomial time is still unknown. Our contribution to this problem is a polynomial time algorithm which constructs a balanced biclique of size Omega(sqrt(log(n))) in sufficiently large and dense bipartite graphs.
15

Detection, Extraction and Analysis of Vossian Antonomasia in Large Text Corpora Using Machine Learning

Schwab, Michel 02 July 2024 (has links)
Rhetorische Stilmittel, werden seit jeher in Texten verwendet, um Bilder zu erzeugen, Leser zu fesseln und wichtige Punkte hervorzuheben. Unter diesen Stilmitteln ist die Vossianische Antonomasie besonders für den Einsatz von Eigennamen als rhetorische Elemente beliebt. Genauer definiert beinhaltet die Vossianische Antonomasie, dass einem Eigennamen eine bestimmte Menge von Eigenschaften oder Attributen zugeordnet wird, indem ein anderer Eigenname, der für die entsprechenden Eigenschaften allgemein bekannt ist, genannt wird. Modifizierende Phrasen, die typischerweise in Kombination mit dem letztgenannten Eigennamen auftreten, helfen, diese Attribute zu kontextualisieren. Trotz ihrer Allgegenwärtigkeit in modernen Medien ist die Forschung zu ihrer Identifizierung, Verwendung und Interpretation selten. Dies motiviert das Thema dieser Arbeit: die automatische Erkennung, Extraktion und Analyse der Vossianischen Antonomasie. Wir präsentieren mehrere Methoden zur automatisierten Erkennung des Phänomens und entwickeln einen annotierten Datensatz. Die Methoden basieren zumeist auf neuronalen Netzen. Zusätzlich stellen wir verschiedene Ansätze zur Extraktion jedes Teils des Stilmittels in einem Satz vor. Darüber hinaus führen wir sprachübergreifende Extraktionsmodelle ein und verfeinern Erkennungsmethoden für eine verbesserte Leistung bei bisher unbekannten syntaktischen Variationen des Phänomens, indem wir uns ausschließlich auf den Schlüsseleigennamen des Stilmittels konzentrieren. Außerdem befassen wir uns mit einer anderen, aber ergänzenden Aufgabe, nämlich der Extraktion des zu beschreibenden Eigennamens in einem ganzen Textabsatz. Für ein tieferes Verständnis der Vossianischen Antonomasie präsentieren wir eine explorative Analyse des entwickelten Datensatzes. Wir führen zwei interaktive Visualisierungen ein, die die einzelnen Teile des Phänomens und ihr Zusammenspiel hervorheben, um weitere Einblicke zu gewinnen. / Stylistic devices, also known as figures of speech or rhetorical devices, have always been used in text to create imagery, engage readers, and emphasize key points. Among these devices, Vossian Antonomasia, which is closely related to metaphor and metonymy, is particularly popular for employing named entities as rhetorical elements. Defined more precisely, Vossian Antonomasia involves attributing a particular set of properties or attributes to an entity by naming another named entity that is generally well-known for the respective properties. Modifying phrases, which typically appear in combination with the latter entity, help contextualize these attributes. Despite its ubiquity in modern media, the research on its identification, usage, and interpretation is rare. This motivates the topic of this thesis: The automated detection, extraction and analysis of Vossian Antonomasia. We present several methods for the automated detection of the phenomenon and create an annotated dataset. Mostly, the methods are based on neural networks. Additionally, we introduce several approaches for extracting each chunk of the device in a sentence by modeling the problem as a sequence tagging task. Moreover, we introduce cross-lingual extraction models and refine detection methods for an improved performance on unseen syntactic variations of the phenomenon by focusing solely on the key entity of the device. Furthermore, we tackle a distinct but complementary task, namely, the extraction of the entity being described in an entire text paragraph. For a deeper understanding of Vossian Antonomasia, we present an exploratory analysis of the developed dataset. We introduce two interactive visualizations that highlight the chunks of the phenomenon and their interplay to gain more insights.
16

Datalog on infinite structures

Schwandtner, Goetz 20 November 2008 (has links)
Datalog ist die relationale Variante der logischen Programmierung und ist eine Standard-Abfragesprache in der Datenbankentheorie geworden. Die Programmkomplexität von Datalog im bisherigen Hauptanwendungsgebiet, auf endlichen Strukturen, ist bekanntermassen in EXPTIME. Wir untersuchen die Komplexität von Datalog auf unendlichen Strukturen, motiviert durch mögliche Anwendungen von Datalog auf unendlichen Strukturen (z.B. linearen Ordnungen) im zeitlichen und räumlichen Schliessen, aber auch durch das aufkommende Interesse an unendlichen Strukturen bei verwandten theoretischen Problemen, wie Constraint Satisfaction Problems (CSP): Im Gegensatz zu endlichen Strukturen können Datalog-Berechnungen auf unendlichen Strukturen unendlich lange dauern, was zur Unentscheidbarkeit von Datalog auf unendlichen Strukturen führen kann. Aber auch in den entscheidbaren Fällen kann die Komplexität von Datalog auf unendlichen Strukturen beliebig hoch sein. Im Hinblick auf dieses Ergebnis widmen wir uns dann unendlichen Strukturen mit der niedrigsten Komplexität von Datalog: Wir zeigen, dass Datalog auf linearen Ordnungen (auch dichte und diskrete, mit oder ohne Konstanten und sogar gefärbte) und Baumordnungen EXPTIME-vollständig ist. Für die Bestimmung der oberen Schranke werden Werkzeuge für Datalog auf Ordnungen eingeführt: Ordnungstypen, Abstandstypen und typdisjunkte Programme. Die Typkonzepte liefern eine endliche Beschreibung der unendlichen Programmergebnisse und könnten auch für praktische Anwendungen von Interesse sein. Wir erzeugen spezielle typdisjunkte Programme, die sich ohne Rekursion lösen lassen. Ein Transfer unserer Methoden auf CSPs zeigt, dass CSPs auf unendlichen Strukturen mit beliebig hoher Zeitkomplexität vorkommen, wie Datalog. / Datalog is the relational variant of logic programming and has become a standard query language in database theory. The (program) complexity of datalog in its main context so far, on finite databases, is well known to be in EXPTIME. We research the complexity of datalog on infinite databases, motivated by possible applications of datalog to infinite structures (e.g. linear orders) in temporal and spatial reasoning on one hand and the upcoming interest in infinite structures in problems related to datalog, like constraint satisfaction problems: Unlike datalog on finite databases, on infinite structures the computations may take infinitely long, leading to the undecidability of datalog on some infinite structures. But even in the decidable cases datalog on infinite structures may have arbitrarily high complexity, and because of this result, we research some structures with the lowest complexity of datalog on infinite structures: Datalog on linear orders (also dense or discrete, with and without constants, even colored) and tree orders has EXPTIME-complete complexity. To achieve the upper bound on these structures, we introduce a tool set specialized for datalog on orders: Order types, distance types and type disjoint programs. The type concept yields a finite representation of the infinite program results, which could also be of interest for practical applications. We create special type disjoint versions of the programs allowing to solve datalog without the recursion inherent in each datalog program. A transfer of our methods shows that constraint satisfaction problems on infinite structures occur with arbitrarily high time complexity, like datalog.
17

Lexicon formation in autonomous robots

Loetzsch, Martin 26 January 2015 (has links)
"Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache". Ludwig Wittgenstein führte diese Idee in der ersten Hälfte des 20. Jahrhunderts in die Philosophie ein und in verwandten Disziplinen wie der Psychologie und Linguistik setzte sich vor allem in den letzten Jahrzehnten die Ansicht durch, dass natürliche Sprache ein dynamisches System arbiträrer und kulturell gelernter Konventionen ist. Forscher um Luc Steels übertrugen diesen Sprachbegriff seit Ende der 90er Jahre auf das Gebiet der Künstlichen Intelligenz, indem sie zunächst Software-Agenten und später Robotern mittels sogenannter Sprachspiele gemeinsame Kommunikationssysteme bilden liessen, ohne dass Agenten im Voraus mit linguistischem und konzeptionellen Wissen ausgestattet werden. Die vorliegende Arbeit knüpft an diese Forschung an und untersucht vertiefend die Selbstorganisation von geteiltem lexikalischen Wissen in humanoiden Robotern. Zentral ist dabei das Konzept der "referential uncertainty", d.h. die Schwierigkeit, die Bedeutung eines bisher unbekannten Wortes aus dem Kontext zu erschliessen. Ausgehend von sehr einfachen Modellen der Lexikonbildung untersucht die Arbeit zunächst in einer simulierten Umgebung und später mit physikalischen Robotern systematisch, wie zunehmende Komplexität kommunikativer Interaktionen komplexere Lernmodelle und Repräsentationen erfordert. Ein Ergebnis der Evaluierung der Modelle hinsichtlich Robustheit und Übertragbarkeit auf Interaktionszenarien mit Robotern ist, dass die in der Literatur vorwiegenden selektionistischen Ansätze schlecht skalieren und mit der zusätzlichen Herausforderung einer Verankerung in visuellen Perzeptionen echter Roboter nicht zurecht kommen. Davon ausgehend wird ein alternatives Modell vorgestellt. / "The meaning of a word is its use in the language". In the first half of the 20th century Ludwig Wittgenstein introduced this idea into philosophy and especially in the last few decades, related disciplines such as psychology and linguistics started embracing the view that that natural language is a dynamic system of arbitrary and culturally learnt conventions. From the end of the nineties on, researchers around Luc Steels transferred this notion of communication to the field of artificial intelligence by letting software agents and later robots play so-called language games in order to self-organize communication systems without requiring prior linguistic or conceptual knowledge. Continuing and advancing that research, the work presented in this thesis investigates lexicon formation in humanoid robots, i.e. the emergence of shared lexical knowledge in populations of robotic agents. Central to this is the concept of referential uncertainty, which is the difficulty of guessing a previously unknown word from the context. First in a simulated environments and later with physical robots, this work starts from very simple lexicon formation models and then systematically analyzes how an increasing complexity in communicative interactions leads to an increasing complexity of representations and learning mechanisms. We evaluate lexicon formation models with respect to their robustness, scaling and their applicability to robotic interaction scenarios and one result of this work is that the predominating approaches in the literature do not scale well and are not able to cope with the challenges stemming from grounding words in the real-world perceptions of physical robots. In order to overcome these limitations, we present an alternative lexicon formation model and evaluate its performance.
18

Segmentation and Tracking of Cells and Nuclei Using Deep Learning

Hirsch, Peter Johannes 27 September 2023 (has links)
Die Analyse von großen Datensätzen von Mikroskopiebilddaten, insbesondere Segmentierung und Tracking, ist ein sehr wichtiger Aspekt vieler biologischer Studien. Für die leistungsfähige und verlässliche Nutzung ist der derzeitige Stand der Wissenschaft dennoch noch nicht ausreichend. Die vorhandenen Methoden sind oft schwer zu benutzen für ungeübte Nutzer, die Leistung auf anderen Datensätzen ist häufig verbesserungswürdig und sehr große Mengen an Trainingsdaten werden benötigt. Ich ging dieses Problem aus verschiedenen Richtungen an: (i) Ich präsentiere klare Richtlinien wie Artefakte beim Arbeiten mit sehr großen Bilddaten verhindert werden können. (ii) Ich präsentiere eine Erweiterung für eine Reihe von grundlegenden Methoden zur Instanzsegmentierung von Zellkernen. Durch Verwendung einer unterstützenden Hilfsaufgabe ermöglicht die Erweiterung auf einfache und unkomplizierte Art und Weise Leistung auf dem aktuellen Stand der Wissenschaft. Dabei zeige ich zudem, dass schwache Label ausreichend sind, um eine effiziente Objekterkennung auf 3d Zellkerndaten zu ermöglichen. (iii) Ich stelle eine neue Methode zur Instanzsegmentierung vor, die auf eine große Auswahl von Objekten anwendbar ist, von einfachen Formen bis hin zu Überlagerungen und komplexen Baumstrukturen, die das gesamte Bild umfassen. (iv) Auf den vorherigen Arbeiten aufbauend präsentiere ich eine neue Trackingmethode, die auch mit sehr großen Bilddaten zurecht kommt, aber nur schwache und dünnbesetzte Labels benötigt und trotzdem besser als die bisherigen besten Methoden funktioniert. Die Anpassungsfähigkeit an neue Datensätze wird durch eine automatisierte Parametersuche gewährleistet. (v) Für Nutzer, die das Tracking von Objekten in ihrer Arbeit verwenden möchten, präsentiere ich zusätzlich einen detaillierten Leitfaden, der es ihnen ermöglicht fundierte Entscheidungen zu treffen, welche Methode am besten zu ihrem Projekt passt. / Image analysis of large datasets of microscopy data, in particular segmentation and tracking, is an important aspect of many biological studies. Yet, the current state of research is still not adequate enough for copious and reliable everyday use. Existing methods are often hard to use, perform subpar on new datasets and require vast amounts of training data. I approached this problem from multiple angles: (i) I present clear guidelines on how to operate artifact-free on huge images. (ii) I present an extension for existing methods for instance segmentation of nuclei. By using an auxiliary task, it enables state-of-the-art performance in a simple and straightforward way. In the process I show that weak labels are sufficient for efficient object detection for 3d nuclei data. (iii) I present an innovative method for instance segmentation that performs extremely well on a wide range of objects, from simple shapes to complex image-spanning tree structures and objects with overlaps. (iv) Building upon the above, I present a novel tracking method that operates on huge images but only requires weak and sparse labels. Yet, it outperforms previous state-of-the-art methods. An automated weight search method enables adaptability to new datasets. (v) For practitioners seeking to employ cell tracking, I provide a comprehensive guideline on how to make an informed decision about what methods to use for their project.
19

Adaption offener Systeme durch die Trennung von Daten- und Kontrollfluss

Gierds, Christian 25 February 2015 (has links)
Wir betrachten offene Systeme; Systeme mit Schnittstelle und Verhalten in Form eines Protokolls. Offener Systeme interagieren durch den Austausch von Nachrichten. Die Interaktion ist korrekt, wenn die interagierende offenen Systeme terminieren können. Die korrekte Interaktion unabhängig entwickelter, offener Systeme ist nicht immer möglich. Obwohl ein offenes Systeme Funktionalität bereitstellt, die ein zweites offenes System benötigt, können Inkompatibilitäten in den Schnittstellen oder im Verhalten dazu führen, dass Nachrichten nicht korrekt ausgetauscht werden. Hier kommt die Idee eines Adapters zum Tragen, der solche Unterschiede ausgleicht. Wir führen eine Technik ein, die Inkompatibilitäten der Schnittstelle und des Verhaltens getrennt voneinander betrachtet. Mit Hilfe von Transformationsregeln geben wir an, wie Nachrichten zweier offener Systeme im Zusammenhang stehen. Wir modellieren so korrekten Datenfluss zwischen den Schnittstellen der offenen Systeme. Mit Hilfe existierender Techniken zur Controllersynthese erzeugen wir korrekten Kontrollfluss, sodass die Transformationsregeln so angewendet werden, dass Inkompatibilitäten im Verhalten überwunden werden. Wir erzeugen korrekten Kontrollfluss. Die Einheit aus Transformationsregeln und Controller bezeichnen wir als Adapter. Aufbauend auf dieser Technik betrachten wir in dieser Arbeit folgende Fragestellungen: - Welche Eigenschaften besitzt die vorgestellte Technik? Wann existiert ein Adapter? Wie lässt sich die Technik allgemein auf offene, kommunizierende Systeme anwenden? - Wie verteilen wir einen generierten Adapter auf verschiedene Komponenten? - Welche Informationen können wir bereitstellen, falls wir keinen Adapter finden? - Wie leiten wir ein formales Modell eines Adapters ab, wenn wir nur aufgezeichnetes Verhalten der offenen Systeme, aber keine formalen Modelle gegeben haben? / We consider open systems being described by an interface and behavior in form of an protocol. Interaction between open systems means exchange of messages. For the interaction to be correct, the interacting open systems must be able to terminate. The interaction of independently developed open systems is not guaranteed to be correct. Although one open system provides functionality a second open system requires, incompatiblities of the interfaces or the behavior may prevent the correct exchange of messages. The idea is to introduce an adapter to overcome the incompatiblities. We present a technique that considers incompatiblities of the interfaces and the behavior separately. With transformation rules we specify how messages of two open systems relate to each other. Using these rules we model the data flow between open systems and overcome incompatiblities of the interfaces. By using existing techniques for controller synthesis we overcome incompatiblities of the behavior. Thus we create correct control flow. We call the composition of transformation rules and controller an adapter. Based on the technique presented in this thesis, we want to answer the following reseach questions: - What are the properties of the proposed technique? When does an adapter exist? How can we apply the technique on open, communicating systems in general? - How do we distribute a generated adapter to different components? - Which information can we provide, if adapter synthesis fails? - How can we discover a formal model of an adapter, when we only have recorded behavior of open systems, but no formal models?
20

Serielle Transformationen von XML

Becker, Oliver 10 December 2004 (has links)
Die Auszeichnungssprache XML definiert eine einfache Syntax für strukturierte Daten, die sich so applikationsübergreifend einsetzen lassen. Eine der wichtigsten Voraussetzungen für den Austausch solcher XML-Daten ist die Möglichkeit ihrerTransformation. Unter den derzeit verfügbaren Transformationsmethoden für XML hat die Sprache XSLT als W3C-Standard die größte Verbreitung gefunden. Allerdings skaliert XSLT nicht für große Datenmengen, da hier eine Gesamtsicht auf das XML-Dokument vorausgesetzt wird. Andere existierende Transformationsmethoden besitzen entweder die gleiche Eigenschaft oder erfordern die Programmierung auf der XML-fernen Ebene einer Programmiersprache. In dieser Arbeit wird mit STX eine Transformationssprache für XML entwickelt, die diese Lücke füllt. STX orientiert sich sehr stark an XSLT, verarbeitet jedoch ein XML-Dokument als Datenstrom. STX kann so prinzipiell beliebig große Dokumente transformieren. Die aus der Sprache XPath 2.0 des W3C abgeleitete STX-Pfadsprache (STXPath) trägt dabei der eingeschränkten Sicht auf die zu transformierenden Daten Rechnung, indem sie nur den Zugriff auf die Vorfahren des jeweiligen Kontextknotens ermöglicht. Zu den neuartigen Konzepten in STX zählen neben prozeduralen Eigenschaften vor allem Gruppen, Schnittstellen zu externen Transformationsprozessen, die komplexe Transformation von Zeichenketten sowie Sprachmittel zur Fehlerbehandlung. Diese Arbeit stellt Entwurfsmuster für die wichtigsten Transformationstypen in STX vor und demonstriert an drei Fallbeispielen den Einsatz in realen Projekten. Der dazu verwendete STX-Prozessor Joost verfügt zudem über standardisierteJava-Schnittstellen, die dessen Integration in bestehende Java-Applikationen erleichtern. / The markup language XML defines a simple syntax for structured data that can be used across application boundaries. One of the most important prerequisites for the interchange of such XML data is the possibility of its transformation. Among the currently available transformation approaches for XML, the W3C standard XSLT has gained the biggest popularity. However, XSLT doesn''t scale for huge amounts of data because it requires an overall view to an XML document. Other existing transformation approaches either have the same character or require low-level programming using a general programming language. This PhD thesis introduces STX, an XML transformation language that fills this gap. STX is strongly geared to XSLT, though it processes an XML document as a stream. Therefore, STX is able to transform documents of any size. The STX path language (STXPath), derived from the W3C standard XPath 2.0, considers the restricted view to the input data and enables the access only to the ancestors of the current context node. The new concepts in STX include besides its procedural behaviour mainly groups, interfaces to external transformation processes, complex transformations of strings, as well as language means for error handling. This work introduces design patterns for the most important transformation types in STX and demonstrates three real-life scenarios. The STX processor Joost used for this purpose provides in addition standardized Java interfaces that facilitate its integration into existing Java applications.

Page generated in 0.0766 seconds