• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1374
  • 382
  • 379
  • 77
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 2524
  • 1657
  • 1214
  • 1211
  • 1199
  • 458
  • 393
  • 363
  • 344
  • 344
  • 324
  • 323
  • 318
  • 308
  • 239
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
731

Building a semantic search engine with games and crowdsourcing

Wieser, Christoph 08 May 2014 (has links) (PDF)
Semantic search engines aim at improving conventional search with semantic information, or meta-data, on the data searched for and/or on the searchers. So far, approaches to semantic search exploit characteristics of the searchers like age, education, or spoken language for selecting and/or ranking search results. Such data allow to build up a semantic search engine as an extension of a conventional search engine. The crawlers of well established search engines like Google, Yahoo! or Bing can index documents but, so far, their capabilities to recognize the intentions of searchers are still rather limited. Indeed, taking into account characteristics of the searchers considerably extend both, the quantity of data to analyse and the dimensionality of the search problem. Well established search engines therefore still focus on general search, that is, "search for all", not on specialized search, that is, "search for a few". This thesis reports on techniques that have been adapted or conceived, deployed, and tested for building a semantic search engine for the very specific context of artworks. In contrast to, for example, the interpretation of X-ray images, the interpretation of artworks is far from being fully automatable. Therefore artwork interpretation has been based on Human Computation, that is, a software-based gathering of contributions by many humans. The approach reported about in this thesis first relies on so called Games With A Purpose, or GWAPs, for this gathering: Casual games provide an incentive for a potentially unlimited community of humans to contribute with their appreciations of artworks. Designing convenient incentives is less trivial than it might seem at first. An ecosystem of games is needed so as to collect the meta-data on artworks intended for. One game generates the data that can serve as input of another game. This results in semantically rich meta-data that can be used for building up a successful semantic search engine. Thus, a first part of this thesis reports on a "game ecosystem" specifically designed from one known game and including several novel games belonging to the following game classes: (1) Description Games for collecting obvious and trivial meta-data, basically the well-known ESP (for extra-sensorial perception) game of Luis von Ahn, (2) the Dissemination Game Eligo generating translations, (3) the Diversification Game Karido aiming at sharpening differences between the objects, that is, the artworks, interpreted and (3) the Integration Games Combino, Sentiment and TagATag that generate structured meta-data. Secondly, the approach to building a semantic search engine reported about in this thesis relies on Higher-Order Singular Value Decomposition (SVD). More precisely, the data and meta-data on artworks gathered with the afore mentioned GWAPs are collected in a tensor, that is a mathematical structure generalising matrices to more than only two dimensions, columns and rows. The dimensions considered are the artwork descriptions, the players, and the artwork themselves. A Higher-Order SVD of this tensor is first used for noise reduction in This thesis reports also on deploying a Higher-Order LSA. The parallel Higher-Order SVD algorithm applied for the Higher-Order LSA and its implementation has been validated on an application related to, but independent from, the semantic search engine for artworks striven for: image compression. This thesis reports on the surprisingly good image compression which can be achieved with Higher-Order SVD. While compression methods based on matrix SVD for each color, the approach reported about in this thesis relies on one single (higher-order) SVD of the whole tensor. This results in both, better quality of the compressed image and in a significant reduction of the memory space needed. Higher-Order SVD is extremely time-consuming what calls for parallel computation. Thus, a step towards automatizing the construction of a semantic search engine for artworks was parallelizing the higher-order SVD method used and running the resulting parallel algorithm on a super-computer. This thesis reports on using Hestenes’ method and R-SVD for parallelising the higher-order SVD. This method is an unconventional choice which is explained and motivated. As of the super-computer needed, this thesis reports on turning the web browsers of the players or searchers into a distributed parallel computer. This is done by a novel specific system and a novel implementation of the MapReduce data framework to data parallelism. Harnessing the web browsers of the players or searchers saves computational power on the server-side. It also scales extremely well with the number of players or searchers because both, playing with and searching for artworks, require human reflection and therefore results in idle local processors that can be brought together into a distributed super-computer. / Semantische Suchmaschinen dienen der Verbesserung konventioneller Suche mit semantischen Informationen, oder Metadaten, zu Daten, nach denen gesucht wird, oder zu den Suchenden. Bisher nutzt Semantische Suche Charakteristika von Suchenden wie Alter, Bildung oder gesprochene Sprache für die Auswahl und/oder das Ranking von Suchergebnissen. Solche Daten erlauben den Aufbau einer Semantischen Suchmaschine als Erweiterung einer konventionellen Suchmaschine. Die Crawler der fest etablierten Suchmaschinen wie Google, Yahoo! oder Bing können Dokumente indizieren, bisher sind die Fähigkeiten eher beschränkt, die Absichten von Suchenden zu erkennen. Tatsächlich erweitert die Berücksichtigung von Charakteristika von Suchenden beträchtlich beides, die Menge an zu analysierenden Daten und die Dimensionalität des Such-Problems. Fest etablierte Suchmaschinen fokussieren deswegen stark auf allgemeine Suche, also "Suche für alle", nicht auf spezialisierte Suche, also "Suche für wenige". Diese Arbeit berichtet von Techniken, die adaptiert oder konzipiert, eingesetzt und getestet wurden, um eine semantische Suchmaschine für den sehr speziellen Kontext von Kunstwerken aufzubauen. Im Gegensatz beispielsweise zur Interpretation von Röntgenbildern ist die Interpretation von Kunstwerken weit weg davon gänzlich automatisiert werden zu können. Deswegen basiert die Interpretation von Kunstwerken auf menschlichen Berechnungen, also Software-basiertes Sammeln von menschlichen Beiträgen. Der Ansatz, über den in dieser Arbeit berichtet wird, beruht auf sogenannten "Games With a Purpose" oder GWAPs die folgendes sammeln: Zwanglose Spiele bieten einen Anreiz für eine potenziell unbeschränkte Gemeinde von Menschen, mit Ihrer Wertschätzung von Kunstwerken beizutragen. Geeignete Anreize zu entwerfen in weniger trivial als es zuerst scheinen mag. Ein Ökosystem von Spielen wird benötigt, um Metadaten gedacht für Kunstwerke zu sammeln. Ein Spiel erzeugt Daten, die als Eingabe für ein anderes Spiel dienen können. Dies resultiert in semantisch reichhaltigen Metadaten, die verwendet werden können, um eine erfolgreiche Semantische Suchmaschine aufzubauen. Deswegen berichtet der erste Teil dieser Arbeit von einem "Spiel-Ökosystem", entwickelt auf Basis eines bekannten Spiels und verschiedenen neuartigen Spielen, die zu verschiedenen Spiel-Klassen gehören. (1) Beschreibungs-Spiele zum Sammeln offensichtlicher und trivialer Metadaten, vor allem dem gut bekannten ESP-Spiel (Extra Sensorische Wahrnehmung) von Luis von Ahn, (2) dem Verbreitungs-Spiel Eligo zur Erzeugung von Übersetzungen, (3) dem Diversifikations-Spiel Karido, das Unterschiede zwischen Objekten, also interpretierten Kunstwerken, schärft und (3) Integrations-Spiele Combino, Sentiment und Tag A Tag, die strukturierte Metadaten erzeugen. Zweitens beruht der Ansatz zum Aufbau einer semantischen Suchmaschine, wie in dieser Arbeit berichtet, auf Singulärwertzerlegung (SVD) höherer Ordnung. Präziser werden die Daten und Metadaten über Kunstwerk gesammelt mit den vorher genannten GWAPs in einem Tensor gesammelt, einer mathematischen Struktur zur Generalisierung von Matrizen zu mehr als zwei Dimensionen, Spalten und Zeilen. Die betrachteten Dimensionen sind die Beschreibungen der Kunstwerke, die Spieler, und die Kunstwerke selbst. Eine Singulärwertzerlegung höherer Ordnung dieses Tensors wird zuerst zur Rauschreduktion verwendet nach der Methode der sogenannten Latenten Semantischen Analyse (LSA). Diese Arbeit berichtet auch über die Anwendung einer LSA höherer Ordnung. Der parallele Algorithmus für Singulärwertzerlegungen höherer Ordnung, der für LSA höherer Ordnung verwendet wird, und seine Implementierung wurden validiert an einer verwandten aber von der semantischen Suche unabhängig angestrebten Anwendung: Bildkompression. Diese Arbeit berichtet von überraschend guter Kompression, die mit Singulärwertzerlegung höherer Ordnung erzielt werden kann. Neben Matrix-SVD-basierten Kompressionsverfahren für jede Farbe, beruht der Ansatz wie in dieser Arbeit berichtet auf einer einzigen SVD (höherer Ordnung) auf dem gesamten Tensor. Dies resultiert in beidem, besserer Qualität von komprimierten Bildern und einer signifikant geringeren des benötigten Speicherplatzes. Singulärwertzerlegung höherer Ordnung ist extrem zeitaufwändig, was parallele Berechnung verlangt. Deswegen war ein Schritt in Richtung Aufbau einer semantischen Suchmaschine für Kunstwerke eine Parallelisierung der verwendeten SVD höherer Ordnung auf einem Super-Computer. Diese Arbeit berichtet vom Einsatz der Hestenes’-Methode und R-SVD zur Parallelisierung der SVD höherer Ordnung. Diese Methode ist eine unkonventionell Wahl, die erklärt und motiviert wird. Ab nun wird ein Super-Computer benötigt. Diese Arbeit berichtet über die Wandlung der Webbrowser von Spielern oder Suchenden in einen verteilten Super-Computer. Dies leistet ein neuartiges spezielles System und eine neuartige Implementierung des MapReduce Daten-Frameworks für Datenparallelismus. Das Einspannen der Webbrowser von Spielern und Suchenden spart server-seitige Berechnungskraft. Ebenso skaliert die Berechnungskraft so extrem gut mit der Spieleranzahl oder Suchenden, denn beides, Spiel mit oder Suche nach Kunstwerken, benötigt menschliche Reflektion, was deswegen zu ungenutzten lokalen Prozessoren führt, die zu einem verteilten Super-Computer zusammengeschlossen werden können.
732

Derivation of mean-field dynamics for fermions

Petrat, Sören 15 May 2014 (has links) (PDF)
In this work, we derive the time-dependent Hartree(-Fock) equations as an effective dynamics for fermionic many-particle systems. Our main results are the first for a quantum mechanical mean-field dynamics for fermions; in previous works, the mean-field limit is usually either coupled to a semiclassical limit, or the interaction is scaled down so much, that the system behaves freely for large particle number N. We mainly consider systems with total kinetic energy bounded by const N and long-range interaction potentials, e.g., Coulomb interaction. Examples for such systems are large molecules or certain solid states. Our analysis also applies to attractive interactions, as, e.g., in fermionic stars. The fermionic Hartree(-Fock) equations are a standard tool to describe, e.g., excited states or chemical reactions of large molecules (like proteins). A deeper understanding of these equations as an approximation to the time evolution of a many body quantum system is thus highly relevant. We consider the fermionic Hatree equations (i.e., the Hartree-Fock equations without exchange term) in this work, since the exchange term is subleading in our setting. The main result is that the fermionic Hartree dynamics approximates the Schrödinger dynamics well for large N. This statement becomes exact in the thermodynamic limit N to infinity. We give explicit values for the rates of convergence. We prove two types of results. The first type is very general and concerns arbitrary free Hamiltonians (e.g., relativistic, non-relativistic, with external fields) and arbitrary interactions. The theorems give explicit conditions on the solutions to the fermonic Hartree equations under which a derivation of the mean-field dynamics succeeds. The second type of results scrutinizes situations where the conditions are fulfilled. These results are about non-relativistic free Hamiltonians with external fields, systems with total kinetic energy bounded by const N and with long-range interactions of the form x^(-s), with 0 < s < 6/5 (sometimes, for technical reasons, with a weaker or cut off singularity). We prove our main results by using a new method for deriving mean-field dynamics developed by Pickl in [Lett. Math. Phys., 97(2):151-164, 2011]. This method has been applied successfully in quantum mechanics for deriving the bosonic Hartree and Gross-Pitaevskii equations. Its application to fermions in this work is new. The method is based on a functional that "counts the number of particles outside the condensate", i.e., in the case of fermions, it measures those parts of the Schrödinger wave function that are not in the antisymmetric product of the Hartree states. We show that convergence of the functional to zero (which means that the mean-field equations approximate the dynamics well) is equivalent to convergence of the corresponding reduced one-particle density matrices in trace norm and in Hilbert-Schmidt norm. Finally, we show how also the recently treated semiclassical mean-field limits can be derived with this method. / In dieser Arbeit werden die zeitabhängigen Hartree(-Fock) Gleichungen als effektive Dynamik für fermionische Vielteilchen-Systeme hergeleitet. Die Hauptresultate sind die ersten für eine quantenmechanische Mean-Field Dynamik ("Mittlere-Feld Dynamik") für Fermionen; in vorherigen Arbeiten ist der Mean-Field Limes üblicherweise entweder mit einem semiklassischen Limes gekoppelt oder die Wechselwirkung wird so stark runterskaliert, dass sich das System für große Teilchenzahl N frei verhält. Wir betrachten hauptsächlich Systeme, deren kinetische Energie durch konst N beschränkt ist, und langreichweitige Wechselwirkungen, wie z.B. Coulomb Wechselwirkung. Beispiele für solche Systeme sind große Moleküle oder bestimmte Festkörper. Unsere Analyse gilt auch für anziehende Wechselwirkungen, wie z.B. in fermionischen Sternen. Die fermionischen Hartree(-Fock) Gleichungen sind ein Standardwerkzeug um z.B. angeregte Zustände oder chemische Reaktionen in großen Molekülen (wie Proteinen) zu beschreiben. Ein tieferes Verständnis dieser Gleichungen als Näherung der Zeitentwicklung eines quantenmechanischen Vielteilchen-Systems ist daher äußerst relevant. Wir betrachten in dieser Arbeit die fermionischen Hartree Gleichungen (d.h., die Hartree-Fock Gleichungen ohne Austauschterm), da der Austauschterm in unserem Fall von niedriger Ordnung ist. Das Hauptresultat ist, dass die fermionische Hartree Dynamik die Schrödinger Dynamik für große N gut annähert. Diese Aussage wird im thermodynamischen Limes N gegen unendlich exakt. Wir geben explizite Konvergenzraten an. Es werden zwei Arten von Resultaten bewiesen. Die erste Art ist sehr allgemein und betrifft beliebige freie Hamiltonians (z.B. relativistisch, nicht-relativistisch, mit externen Feldern) und beliebige Wechselwirkungen. Die Theoreme geben explizite Bedingungen an die Lösungen der fermionischen Hartree-Gleichungen an, unter denen eine Herleitung der Mean-Field Dynamik funktioniert. In der zweiten Art von Resultaten wird untersucht für welche Situationen diese Bedingungen erfüllt sind. Diese Resultate sind über nicht-relativistische freie Hamiltonians mit externen Feldern, Systeme mit kinetischer Energie beschränkt durch konst N und mit langreichweitiger Wechselwirkung der Form x^(-s), mit 0 < s < 6/5 (aus technischen Gründen, manchmal mit abgeschnittener oder abgeschwächter Singularität). Die Hauptresultate werden mit einer neuen Methode zur Herleitung von Mean-Field Limiten bewiesen, die von Pickl in [Lett. Math. Phys., 97(2):151-164, 2011] entwickelt wurde. Diese Methode wurde in der Quantenmechanik erfolgreich zur Herleitung der bosonischen Hartree und Gross-Pitaevskii Gleichungen angewandt. Die Anwendung auf Fermionen in dieser Arbeit ist neu. Die Methode basiert auf einem Funktional, das die "Anzahl der Teilchen außerhalb des Kondensats zählt", d.h. im Falle von Fermionen misst es die Anteile der Schrödinger Wellenfunktion, die nicht im antisymmetrisierten Produkt der Hartree-Zustände sind. Wir zeigen, dass die Konvergenz des Funktionals gegen Null (was bedeutet, dass die Mean-Field Gleichungen die Dynamik gut annähern) äquivalent zur Konvergenz der zugehörigen Einteilchen-Dichtematrizen in Spur-Norm und Hilbert-Schmidt-Norm ist. Wir zeigen außerdem wie die kürzlich behandelten semiklassischen Mean-Field Limiten mit dieser Methode hergeleitet werden können.
733

Flexible distributed lag models and their application to geophysical data

Obermeier, Viola 10 April 2014 (has links) (PDF)
Regression models with lagged covariate effects are often used in biostatistical and geo- physical data analysis. In the difficult and all-important subject of earthquake research, strong long-lasting rainfall is assumed to be one of many complex trigger factors that lead to earthquakes. Geophysicists interpret the rain effect with an increase of pore pressure due to the infiltra- tion of rain water over a long time period. Therefore, a sensible statistical regression model examining the influence of rain on the number of earthquakes on day t has to contain rain information of day t and of preceding days t − 1 to t − L. In the first part of this thesis, the specific shape of lagged rain influence on the number of earthquakes is modeled. A novel penalty structure for interpretable and flexible estimates of lag coefficients based on spline representations is presented. The penalty structure enables smoothness of the resulting lag course and a shrinkage towards zero of the last lag coefficient via a ridge penalty. This additional ridge penalty offers an approach to another problem neglected in previous work. With the help of the additional ridge penalty, a suboptimal choice of the lag length L is no longer critical. We propose the use of longer lags, as our simulations indicate that superfluous coefficients are correctly estimated close to zero. We provide a user-friendly implementation of our flexible distributed lag (FDL) ap- proach, that can be used directly in the established R package mgcv for estimation of generalized additive models. This allows our approach to be immediately included in com- plex additive models for generalized responses even in hierarchical or longitudinal data settings, making use of established stable and well-tested algorithms. We demonstrate the performance and utility of the proposed flexible distributed lag model in a case study on (micro-) earthquake data from Mount Hochstaufen, Bavaria with focus on the specific shape of the lagged rain influence on the occurrence of earthquakes in different depths. The complex meteorological and geophysical data set was collected and provided by the Geophysical Observatory of the Ludwig-Maximilians University Munich. The benefit of flexible distributed lag modeling is shown in a detailed simulation study. In the second part of the thesis, the penalization concept is extended to lagged non- linear covariate influence. Here, we extend an approach of Gasparrini et al. (2010), that was up to now unpenalized. Detailed simulation studies illustrate again the benefits of the penalty structure. The flexible distributed lag nonlinear model is applied to data of the volcano Merapi in Indonesia, collected and provided by the Geophysical Observatory in Fürstenfeldbruck. In this data set, the specific shape of lagged rain influence on the occurrence of block and ash flows is examined.
734

Algorithmic methods for systems biology of Herpes-viral microRNAs

Erhard, Florian 27 March 2014 (has links) (PDF)
Recent technological advances have made it possible to measure various parameters of biological processes in a genome-wide manner. While traditional molecular biology focusses on individual processes using targeted experiments (reductionistic approach), the field of systems biology utilizes high-throughput experiments to determine the state of a complete system such as a cell at once (holistic approach). Systems biology is not only carried out in wet-lab, but for the most part also requires tailored computational methods. High-throughput experiments are able to produce massive amounts of data, that are often too complex for a human to comprehend directly, that are affected by substantial noise, i.e. random measurement variation, and that are often subject to considerable bias, i.e. systematic deviations of the measurement from the truth. Thus, computer science and statistical methods are necessary for a proper analysis of raw data from such large-scale experiments. The goal of systems biology is to understand a whole system such as a cell in a quantitative manner. Thus, the computational part does not end with analyzing raw data but also involves visualization, statistical analyses, integration and interpretation. One example for these four computational tasks is as follows: Processes in biological systems are often modeled as networks, for instance, gene regulatory networks (GRNs) that represent the interactions of transcription factors (TFs) and their target genes. Experiments can provide both, the identity and wiring of all constituent parts of the network as well as parameters that allow to describe the processes in the system in a quantative manner. A network provides a straight-forward way to visualize the state and processes of a whole system, its statistical analysis can reveal interesting properties of biological systems, it is able to integrate several datasets from various experiments and simulations of the network can aid to interpret the data. In recent years, microRNAs emerged as important contributors to gene regulation in eukaryotes, breaking the traditional dogma of molecular biology, where DNA is transcribed to RNA which is subsequently translated into proteins. MicroRNAs are small RNAs that are not translated but functional as RNAs: They are able to target specific messenger RNAs (mRNA) and typically lead to their downregulation. Thus, in addition to TFs, microRNAs also play important roles in GRNs. Interestingly, not only animal genomes including the human genome encode microRNAs, but microRNAs are also encoded by several pathogens such as viruses. In this work I developed several computational systems biology methods and applied them to high-throughout experimental data in the context of a project about herpes viral microRNAs. Three methods, ALPS, PARma and REA, are designed for the analysis of certain types of raw data, namely short RNA-seq, PAR-CLIP and RIP-Chip data, respectively. All of theses experiments are widely used and my methods are publicly available on the internet and can be utilized by the research community to analyze new datasets. For these methods I developed non-trivial statistical methods (e.g. the EM algorithm kmerExplain in PARma) and implemented and adapted algorithms from traditional computer science and bioinformatics (e.g. alignment of pattern matrices in ALPS). I applied these novel methods to data measured by our cooperation partners in the herpes virus project. I.a., I discovered and investigated an important aspect of microRNA-mediated regulation: MicroRNAs recognize their targets in a context-dependent manner. The widespread impact of context on regulation is widely accepted for transcriptional regulation, and only few examples are known for microRNA-mediated regulation. By integrating various herpes-related datasets, I could show that context-dependency is not restricted to few examples but is a widespread feature in post-transcriptional regulation mediated by microRNAs. Importantly, this is true for both, for human host microRNAs as well as for viral microRNAs. Furthermore, I considered additional aspects in the data measured in the context of the herpes virus project: Alternative splicing has been shown to be a major contributor to protein diversity. Splicing is tightly regulated and possibly important in virus infection. Mass spectrometry is able to measure peptides quantitatively genome-wide in high-throughput. However, no method was available to detect splicing patterns in mass spectrometry data, which was one of the datasets that has been meausred in the project. Thus, I investigated whether mass spectrometry offers the opportunity to identify cases of differential splicing in large-scale. Finally, I also focussed on networks in systems biology, especially on their simulation. To be able to simulate networks for the prediction of the behavior of systems is one of the central goals in computational systems biology. In my diploma thesis, I developed a comprehensive modeling platform (PNMA, the Petri net modeling application), that is able to simulate biological systems in various ways. For highly detailed simulations, I further developed FERN, a framework for stochastic simulation that is not only integrated in PNMA, but also available stand-alone or as plugins for the widely used software tools Cytoscape or CellDesigner. In systems biology, the major bottleneck is computational analysis, not the generation of data. Experiments become cheaper every year and the throughput and diversity of data increases accordingly. Thus, developing new methods and usable software tools is essential for further progress. The methods I have developed in this work are a step into this direction but it is apparent, that more effort must be devoted to keep up with the massive amounts of data that is being produced and will be produced in the future. / Der technische Fortschritt in den letzten Jahren hat ermöglicht, dass vielerlei Parameter von biologischen Prozessen genomweit gemessen werden können. Während die traditionelle Molekularbiologie sich mit Hilfe gezielter Experimente auf individuelle Prozesse konzentriert (reduktionistischer Ansatz), verwendet das Feld der Systembiologie Hochdurchsatz-Experimente um den Zustand eines vollständigen Systems wie einer Zelle auf einmal zu bestimmen (holistischer Ansatz). Dabei besteht Systembiologie nicht nur aus Laborarbeit, sondern benötigt zu einem großen Teil auch speziell zurechtgeschnittene computergestützte Methoden. Hochdurchsatz-Experimente können riesige Mengen an Daten produzieren, welche oft zu komplex sind um von einem Menschen direkt verstanden zu werden, welche beeinträchtigt sind von substantiellem Rauschen, das heißt zufälliger Messvariation, und welche oft beträchtlichem Bias unterliegen, also systematischen Abweichungen der Messungen von der tatsächlichen Größe. Daher sind informatische und statistische Methoden notwendig für eine geeignete Analyse der Rohdaten eines groß angelegten systembiologischen Experiments. Das Ziel der Systembiologoe ist ein ganzen System wie eine Zelle in quantitativer Weise zu verstehen. Daher endet der computergestützte Teil nicht mit der Analyse der Rohdaten, sondern beinhaltet ebenfalls Visualisierung, statistische Analyse, Integration und Interpretation. Ein Beispiel dieser vier rechnergestützten Aufgaben ist wie folgt: Prozesse in biologischen Systemen werden oft in Netzwerken modelliert. Zum Beispiel werden in genregulatorischen Netzwerken (GRNs) die Interaktionen zwischen Transkriptionsfaktoren (TFs) und deren Zielgenen repräsentiert. Mit Experimenten kann man sowohl die Identität und die Vernetzung aller Bestandteile des Netzwerkes messen, wie auch die Parameter, mit denen man die Prozesse des Systems in quantitativer Weise beschreiben kann. Mit Hilfe eines Netzwerkes kann man auf einfache und direkte Weise den Zustand und die Prozesse eines ganzen Systems visualisieren, die statistische Analyse des Netzwerks kann interessante Eigenschaften eines biologischen Systems aufdecken, es bietet die Möglichkeit, verschiedene experimentelle Daten zu integrieren und seine Simulation kann bei der Interpretation der Daten helfen. Erst vor wenigen Jahren stelle sich heraus, dass sogenannte microRNAs die Genregulation in Eukaryonten maßgeblich beeinflussen. Das steht im Widersprich zum traditionellen Dogma der Molekularbiologie, bei dem die genetische Information aus der DNA in RNA transkribiert wird, welche anschließend in Proteine translatiert wird. MicroRNAs hingegen sind kurze RNAs, welche nicht translatiert werden, sondern als RNAs funktional sind. Sie können spezifische messenger RNAs (mRNAs) binden und führen dann typischerweise zu deren Inhibition. Zusätzlich zu Transkriptionsfaktoren spielen also microRNAs eine wichtige Rolle in GRNs. Interessanterweise enkodieren nicht nur tierische Genome, das menschliche Genom eingeschlossen, microRNAs, sondern viele Pathogene wie Viren exprimieren ihre eigenen microRNAs in infizierten Wirtszellen. In dieser Arbeit habe ich mehrere computergestützte Methoden für die Anwendung in der Systembiologie entwickelt und auf Hochdurchsatz-Daten angewendet, die im Kontext eines Projektes über herpesvirale microRNAs vermessen wurden. Drei Methoden, ALPS, PARma und REA, habe ich für die Analyse von bestimmten Typen von Rohdaten entworfen, nämlich jeweils short RNA-seq, PAR-CLIP und RIP-Chip. All diese Experimente sind weit verbreitet im Einsatz und meine Methoden sind im Internet öffentlich verfügbar und können von der Forschungsgemeinschaft zur Analyse der Rohdaten der jeweiligen Experimente verwendet werden. Für diese Methoden entwickelte ich nicht-triviale statistische Methoden (z.B. den EM Algorithmus kmerExplain in PARma) und implementierte und adaptierte Algorithmen aus der traditionellen Informatik wie auch aus der Bioinformatik (z.B. Sequenzalignment der Mustermatrizen in ALPS). Ich wendete diese neuen Methoden auf Daten an, die von unseren Kooperationspartner im Herpesviren Projekt gemessenen wurden. Dabei entdeckte und erforschte ich unter anderem einen wichtigen Aspekt der Regulation durch microRNAs: MicroRNAs erkennen ihre Targets in kontext-abhängiger Weise. Die weitverbreiteten Auswirkungen von Kontext ist weithin akzeptiert für transkriptionelle Regulation und es sind nur wenige Beispiele von kontext-spezifischer microRNA gesteuerte Regulation bekannt. Indem ich mehrere Herpes-relevante Datensätze integriert analysiert habe, konnte ich zeigen, dass Kontext-Abhängigkeit nicht nur auf ein paar Beispiele beschränkt ist, sondern dass es ebenfalls ein weitverbreitetes Merkmal der post-transkriptionellen Regulation gesteuert durch microRNAs ist, dass Zielgene kontext-abhängig erkannt werden. Das gilt sowohl für die menschlichen microRNAs der Wirtszelle wie auch für die exogenen viralen microRNAs. Desweiteren habe ich zusätzliche Aspekte der Daten des Herpesviren-Projektes betrachtet: Es wurde gezeigt, dass alternatives Spleißen maßgeblich zur Diversität von Proteinen beiträgt. Spleißen ist streng reguliert und möglicherweise wichtig bei der Virusinfektion. Massenspektrometrie kann Peptide genomweit in quantitativer Weise messen. Allerdings stand keine Methode zur Verfügung, um Spleiß-Muster in Massenspektrometrie-Daten, wie sie im Projekt gemessen wurden, zu detektieren. Aus diesem Grund habe ich untersucht, ob es mit Massenspektrometrie-Daten möglich ist, Fälle von alternativen Spleißen im großen Umfang zu identifizieren. Letztendlich habe ich mich auch auf systembiologische Netzwerke und im Speziellen auf deren Simulation konzentriert. Netzwerke simulieren zu können um das Verhalten von Systemen vorherzusagen ist eines der zentralen Ziele der rechnergestützten Systembiologie. Bereits in meiner Diplomarbeit habe dafür ich eine umfassende Modellierplatform (PNMA, the Petri net modelling application) entwickelt. Damit ist es möglich, biologische Systeme auf vielerlei Arten zu simulieren. Für sehr detailierte Simulationen habe ich dann FERN entwickelt, ein Framework zur stochastischen Simulation, welches nicht nur in PNMA integriert ist, sondern auch als eigenständige Software wie auch also Plugin für die weitverbreiteten Programme Cytoscape und CellDesigner verfügbar ist. Der Engpass in der Systembiologie ist mehr und mehr die rechnergestützte Analyse der Daten und nicht deren Generierung. Experimente werden jedes Jahr günstiger und der Durchsatz und die Diversität der Daten wächst dementsprechend. Daher is es für den weiteren wissenschaftlichen Fortschritt essentiell, neue Methoden und benutzbare Softwarepakete zu entwickeln. Die Methoden, die ich in dieser Arbeit entwickelt habe, stellen einen Schritt in diese Richtung dar, aber es ist offensichtlich, dass mehr Anstrengungen aufgewendet werden müssen, um Schritt halten zu können mit den riesigen Mengen an Daten die produziert werden und in der Zukunft noch produziert werden.
735

Orts-, zeit- und kostenbasiertes Ressourcenmanagement im Cloud Computing

Schwanengel, Anna 21 March 2014 (has links) (PDF)
Cloud Computing bietet dem Nutzer die Möglichkeit, virtualisierte Applikationen, Plattformen und sogar Hardware wie Dienste zu nutzen. Der bereitstellende Provider kann die nötige Dienstkapazität in der Cloud elastisch an den aktuellen Bedarf anpassen. Durch die beliebige Ressourcenzuschaltung erwächst jedoch eine erhebliche ökologische und ökonomische Verantwortung. Zudem wird meist teuer überprovisioniert, um im Falle von Lastspitzen das Ablehnen von Anfragen zu vermeiden. Bis heute bietet noch kein Anbieter eine voll automatisierte Lösung zum optimalen Ressourcenmanagement an. Zur Gewährleistung der Skalierbarkeit eines Cloud-basierten Systems bestehen lediglich regelbasierte Mechanismen. Der Nutzer muss die Logik manuell einstellen, um die benötigte Anzahl an Maschinen und ihre Lokalität festzulegen. So sind viele Fragen zu der Ressourcenverwaltung und den entstehenden Kosten für den Cloud-Anwender ungelöst. In dieser Arbeit wird ein Protokoll entwickelt, das eine verbesserte Reihenfolge der Anfragenbearbeitung festlegt und die nötige Ressourcenmenge bestimmt. Die Ressourcenzuteilung basiert zum einen auf der Bedarfsreservierung durch die Ressourcen. Zum anderen kann das Nutzungsverhalten durch den Dienst beeinflusst werden. Die Simulationsergebnisse zeigen so stark reduzierte Antwortzeiten und Verwurfsraten. Im Cloud-Umfeld ist die effiziente Bearbeitung der Anfragen allerdings häufig aufgrund von Abhängigkeiten zwischen den dienstbetreibenden Maschinen beeinträchtigt. Deshalb wird das Protokoll um einen Selbstkalibrierungsmechanismus und ein Ressourcenregelverfahren erweitert. Mit der Abbildung der Abhängigkeiten auf einen Graphen ist das Gesamtsystem skalierbar, ohne die Auslastung aller Ressourcen einzeln kontrollieren zu müssen. Vom menschlichen Benutzer kann man jedoch keine Vorabreservierung bezüglich des Zeitpunkts seiner Dienstnutzung fordern - so wie das von Maschinen problemlos möglich ist. Für diesen Fall ermöglicht die vorliegende Arbeit deshalb die Extrapolation der Nutzerdaten aus Aufzeichnungen sozialer Netzwerke. Ohne Belastung der Anwender wird die Identifikation des Ressourcenbedarfs an einem bestimmten Ort realisiert. Für eine solche Systemadaption führt der in dieser Arbeit entworfene Algorithmus eine ortsspezifische Vorhersagende der nötigen Ressourcenanzahl durch. Diese Informationen dienen als Input für das entwickelte Protokoll und bieten so eine wohlproportionierte Provisionierung. Die bei Skalierungen entstehenden Kosten sind meist schwer abzuschätzen. Aus diesem Grund werden im Verlauf dieser Arbeit Kostenfunktionen für den Nutzer und den Anbieter erstellt. Sie machen das optimale Mittel zwischen geringeren Kosten bei niedriger Ressourcenmenge und höherer Nutzerzufriedenheit bei großzügiger Kapazitätsabdeckung berechenbar. Eine prototypische Umsetzung einschließlich verschiedener Simulationen zeigt, dass die entwickelten Ansätze ein deutlich verbessertes automatisiertes Ressourcenmanagement umsetzen. / Cloud computing offers the possibility to use virtual applications, platforms and even hardware as a service. The cloud provider can elastically adapt resource capacity to the users' demand. However, from any desired resource provisioning also an enormous ecological and economical responsibility accrues. Besides, often costly overprovisioning is conducted in order to avoid request drops on load peaks. Until today, instance allocation is not yet fully automated by vendors. Only rule-based mechanisms exist to react on load changes. The user needs to manually implement logics for defining the amount of resources, as well as the instance location. Hence, many questions about resource management and emerging costs remain. In this work, a protocol is developed, which defines an optimal schedule for all clients and needed resources. The resource management is based on the demand reservation by the user. On the other hand the client usage can be delayed by the cloud service. The simulation shows good results regarding response times and drop rates. Efficient scheduling in cloud systems, however, is often restricted by dependencies among the claimed resources. For that reason, the protocol was extended by a self-calibration- and a resource-regulation-method. With an appropriate mapping, it is possible to scale the whole system based on the dependency model without observing each instance utilization. Human users can - contrary to machines - not be forced to determine their service usage in advance. By extrapolating records of the social Web, resource demands can be procured without burden the user. With this data, increasing load on popular services at a specific location can be deducted and resources can be scaled accordingly. For system adaptation, the algorithm presented in this work enables location-based determination of required resource amounts. This serves as input for the developed protocol, while offering well-proportioned provisioning. On scaling, generally emerging costs are difficult to estimate. For that reason cost functions for users and providers are developed. This enables the finding of an optimized trade-off between low emerging costs and a high user satisfaction. Proven by prototypical implementation and simulations, all developed approaches enable an optimized and automated resource management.
736

Crowdsourcing for linguistic field research and e-learning

Kneißl, Fabian 01 April 2014 (has links) (PDF)
Crowdsourcing denotes the transfer of work commonly carried out by single humans to a large group of people. Nowadays, crowdsourcing is employed for many purposes, like people contributing their knowledge to Wikipedia, researchers predicting diseases from data on Twitter, or players solving protein folding problems in games. Still, there are areas for which the application of crowdsourcing has not yet been investigated thoroughly. This thesis examines crowdsourcing for two such areas: for empirical research in sciences oriented on humans -focusing on linguistic field research- and for e-learning. Sciences oriented on humans -like linguistics, sociology, or art history- depend on empirical research. For example, in traditional linguistic field research researchers ask questions and fill in forms. Such methods are time-consuming, costly, and not free of biases. This thesis proposes the application of crowdsourcing techniques to overcome these disadvantages and to support empirical research in getting more efficient. Therefore, the concept of a generic market for trading with symbolic goods and speculating on their characteristics in a playful manner, called Agora is introduced. Agora aims to be an "operating system" for social media applications gathering data. Furthermore, the Web-based crowdsourcing platform metropolitalia has been established for hosting two social media applications based upon Agora: Mercato Linguistico and Poker Parole. These applications have been conceived as part of this thesis for gathering complementary data and meta-data on Italian language varieties. Mercato Linguistico incites players to express their own knowledge or beliefs, Poker Parole incites players to make conjectures on the contributions of others. Thereby the primary meta-data collected with Mercato Linguistico are enriched with secondary, reflexive meta-data from Poker Parole, which are needed for studies on the perception of languages. An evaluation of the data gathered on metropolitalia exhibits the viability of the market-based approach of Agora and highlights its strengths. E-learning is concerned with the use of digital technology for learning, nowadays especially via the Internet. This thesis investigates how e-learning applications can support students with association-based learning and lecturers with teaching. For that, a game-like e-learning tool named Termina is proposed in this thesis. From the data collected with Termina association maps are constructed. An association map is a simplified version of a concept map, in which concepts are represented as rectangles and relationships between concepts as links. They constitute an abstract comprehension of a topic. Students profit from the association maps' availability, learn from other participating students, and can track their own learning progress. Lecturers gain insights into the knowledge and into potential misunderstandings of their students. An evaluation of Termina and the collected data along a university course exhibits Termina's usefulness for both students and lecturers. The main contributions of this thesis are (1) a literature review over collective intelligence, crowdsourcing, and related fields, (2) a model of a generic market for gathering data for empirical research efficiently, (3) two applications based on this model and results of an evaluation of the data gathered with them, (4) the game-like e-learning tool Termina together with insights from its evaluation, and (5) a generic software architecture for all aforementioned applications. / Crowdsourcing bezeichnet die Auslagerung von Arbeit an eine Gruppe von Menschen zur Lösung eines Problems. Heutzutage wird Crowdsourcing für viele Zwecke verwendet, zum Beispiel tragen Leute ihr Wissen zu Wikipedia bei, Wissenschaftler sagen Krankheiten anhand von Twitter-Daten vorher oder Spieler lösen Proteinfaltungsprobleme in Spielen. Es gibt dennoch Gebiete, für die der Einsatz von Crowdsourcing noch nicht gründlich untersucht wurde. Diese Arbeit untersucht Crowdsourcing für zwei solche Gebiete: für empirische Forschung in auf den Menschen bezogenen Wissenschaften mit Fokus auf linguistischer Feldforschung sowie für E-Learning. Auf den Menschen bezogene Wissenschaften wie Linguistik, Soziologie oder Kunstgeschichte beruhen auf empirischer Forschung. In traditioneller linguistischer Feldforschung zum Beispiel stellen Wissenschaftler Fragen und füllen Fragebögen aus. Solche Methoden sind zeitaufwändig, teuer und nicht unbefangen. Diese Arbeit schlägt vor, Crowdsourcing-Techniken anzuwenden, um diese Nachteile zu überwinden und um empirische Forschung effizienter zu gestalten. Dazu wird das Konzept eines generischen Marktes namens Agora für den Handel mit symbolischen Gütern und für die Spekulation über deren Charakteristika eingeführt. Agora ist ein generisches "Betriebssystem" für Social Media Anwendungen. Außerdem wurde die Internet-basierte Crowdsourcing-Plattform metropolitalia eingerichtet, um zwei dieser Social Media Anwendungen, die auf Agora basieren, bereitzustellen: Mercato Linguistico und Poker Parole. Diese Anwendungen wurden als Teil dieser Arbeit entwickelt, um komplementäre Daten und Metadaten über italienische Sprachvarietäten zu sammeln. Mercato Linguistico regt Spieler dazu an, ihr eigenes Wissen und ihre Überzeugungen auszudrücken. Poker Parole regt Spieler dazu an, Vermutungen über die Beiträge anderer Spieler anzustellen. Damit werden die mit Mercato Linguistico gesammelten primären Metadaten mit reflexiven sekundären Metadaten aus Poker Parole, die für Studien über die Wahrnehmung von Sprachen notwendig sind, bereichert. Eine Auswertung der auf metropolitalia gesammelten Daten zeigt die Zweckmäßigkeit des marktbasierten Ansatzes von Agora und unterstreicht dessen Stärken. E-Learning befasst sich mit der Verwendung von digitalen Technologien für das Lernen, heutzutage vor allem über das Internet. Diese Arbeit untersucht, wie E-Learning-Anwendungen Studenten bei assoziationsbasiertem Lernen und Dozenten bei der Lehre unterstützen können. Dafür wird eine Spiel-ähnliche Anwendung namens Termina in dieser Arbeit eingeführt. Mit den über Termina gesammelten Daten werden Association-Maps konstruiert. Eine Association-Map ist eine vereinfachte Variante einer Concept-Map, in der Begriffe als Rechtecke und Beziehungen zwischen Begriffen als Verbindungslinien dargestellt werden. Sie stellen eine abstrakte Zusammenfassung eines Themas dar. Studenten profitieren von der Verfügbarkeit der Association-Maps, lernen von anderen Studenten und können ihren eigenen Lernprozess verfolgen. Dozenten bekommen Einblicke in den Wissensstand und in eventuelle Missverständnisse ihrer Studenten. Eine Evaluation von Termina und der damit gesammelten Daten während eines Universitätskurses bestätigt, dass Termina sowohl für Studenten als auch für Dozenten hilfreich ist. Die Kernbeiträge dieser Arbeit sind (1) eine Literaturrecherche über kollektive Intelligenz, Crowdsourcing und verwandte Gebiete, (2) ein Modell eines generischen Marktes zur effizienten Sammlung von Daten für empirische Forschung, (3) zwei auf diesem Modell basierende Anwendungen und Ergebnisse deren Evaluation, (4) die Spiel-ähnliche E-Learning-Anwendung Termina zusammen mit Einblicken aus dessen Evaluation und (5) eine generische Softwarearchitektur für alle vorgenannten Anwendungen.
737

A framework for exchange-based trading of cloud computing commodities

Watzl, Johannes 07 April 2014 (has links) (PDF)
Cloud computing is a paradigm for using IT services with characteristics such as flexible and scalable service usage, on-demand availability, and pay-as-you-go billing. Respective services are called cloud services and their nature usually motivates a differentiation in three layers: Infrastructure as a Service (IaaS) for cloud services offering functionality of hardware resources in a virtualised way, Platform as a Service (PaaS) for services acting as execution platforms, and Software as a Service (SaaS) representing applications provided in a cloud computing way. Any of these services is offered with the illusion of unlimited scalability. The infinity gained by this illusion implies the need for some kind of regulation mechanism to manage sup- ply and demand. Today’s static pricing mechanisms are limited in their capabilities to adapt to dynamic characteristics of cloud environments such as changing workloads. The solution is a dy- namic pricing approch compareable to today’s exchanges. This requires comparability of cloud services and the need of standardised access to avoid vendor lock-in. To achieve comparability, a classification for cloud services is introcuced, where classes of cloud services representing tradable goods are expressed by the minimum requirements for a certain class. The main result of this work is a framework for exchange-based trading of cloud com- puting commodities, which is composed of four core components derived from existing ex- change market places. An exchange component takes care of accepting orders from buyers and sellers and determines the price for the goods. A clearing component is responsible for the fi- nancial closing of a trade. The settlement component takes care of the delivery of the cloud service. A rating component monitors cloud services and logs service level agreement breaches to calculate provider ratings, especially for reliability, which is an important factor in cloud computing. The framework establishes a new basis for using cloud services and more advanced business models. Additionally, an overview of selected economic aspects including ideas for derivative financial instruments like futures, options, insurances, and more complex ones is pro- vided. A first version of the framework is currently being implemented and in use at Deutsche Bo ̈rse Cloud Exchange AG. / Cloud Computing repra ̈sentiert eine neue Art von IT-Diensten mit bestimmten Eigenschaften wie Flexibilita ̈t, Skalierbarkeit, sta ̈ndige Verfu ̈gbarkeit und nutzungsbezogene (pay-as-you-go) Abrechnung. IT-Dienste, die diese Eigenschaften besitzen, werden als Cloud Dienste bezeichnet und lassen sich in drei Ebenen einteilen: Infrastructure as a Service (IaaS), womit virtuelle Hardware Ressourcen zur Verfu ̈gung gestellt werden, Platform as a Service (PaaS), das eine Ausfu ̈hrungsumgebung darstellt und Software as a Service (SaaS), welches das Anbieten von Applikationen als Cloud Dienst bezeichnet. Cloud Dienste werden mit der Illusion unendlicher Skalierbarkeit angeboten. Diese Unendlichkeit erfordert einen Mechanismus, der in der Lage ist, Angebot und Nachfrage zu regulieren. Derzeit eingesetzte Preisbildungsmechanismen sind in ihren Mo ̈glichkeiten beschra ̈nkt sich auf die Dynamik in Cloud Umgebungen, wie schnell wechselnde Bedarfe an Ressourcen, einzustellen. Eine mo ̈gliche Lo ̈sung stellt ein dynamischer Preisbildungsmechanismus dar, der auf dem Modell heutiger Bo ̈rsen beruht. Dieser erfordert die Standardisierung und Vergleichbarkeit von Cloud Diensten und eine standardisierte Art des Zugriffs. Um die Vergleichbarkeit von Cloud Diensten zu erreichen, werden diese in Klassen eingeteilt, die jeweils ein am Bo ̈rsenplatz handelbares Gut darstellen. Das Ergebnis dieser Arbeit ist ein Rahmenwerk zum bo ̈rsenbasierten Handel von Cloud Computing Commodities, welches aus vier Kernkomponenten besteht, die von existieren- den Bo ̈rsen und Rohstoffhandeslpla ̈tzen abgeleitet werden ko ̈nnen. Die Bo ̈rsenkomponente nimmt Kauf- und Verkaufsorders entgegen und bestimmt die aktuellen Preise der handelbaren Cloud Rohstoffe. Die Clearing Komponente stellt die finanzielle Abwicklung eines Gescha ̈ftes sicher, das Settlement ist fu ̈r die tatsa ̈chliche Lieferung zusta ̈ndig und die Rating Komponente u ̈berwacht die Cloud Dienste im Hinblick auf die Nichteinhaltung von Service Level Agree- ments und vor allem deren Zuverla ̈ssigkeit, die einen wichtigen Faktor im Cloud Computing darstellt. Das Rahmenwerk begru ̈ndet eine neue Basis fu ̈r die Cloudnutzung und ermo ̈glicht fort- geschrittenere Gescha ̈ftsmodelle. In der Arbeit wird weiters ein U ̈berblick u ̈ber o ̈konomis- che Aspekte wie Ideen zu derivaten Finanzinstrumenten auf Cloud Computing Commodities gegeben. Dieses Rahmenwerk wird derzeit an der Deutsche Bo ̈rse Cloud Exchange AG imple- mentiert und bereits in einer ersten Version eingesetzt.
738

Nearcritical percolation and crystallisation

Aumann, Simon 26 November 2014 (has links) (PDF)
This thesis contains results on singularity of nearcritical percolation scaling limits, on a rigidity estimate and on spontaneous rotational symmetry breaking. First it is shown that - on the triangular lattice - the laws of scaling limits of nearcritical percolation exploration paths with different parameters are singular with respect to each other. This generalises a result of Nolin and Werner, using a similar technique. As a corollary, the singularity can even be detected from an infinitesimal initial segment. Moreover, nearcritical scaling limits of exploration paths are mutually singular under scaling maps. Second full scaling limits of planar nearcritical percolation are investigated in the Quad-Crossing-Topology introduced by Schramm and Smirnov. It is shown that two nearcritical scaling limits with different parameters are singular with respect to each other. This result holds for percolation models on rather general lattices, including bond percolation on the square lattice and site percolation on the triangular lattice. Third a rigidity estimate for 1-forms with non-vanishing exterior derivative is proven. It generalises a theorem on geometric rigidity of Friesecke, James and Müller. Finally this estimate is used to prove a kind of spontaneous breaking of rotational symmetry for some models of crystals, which allow almost all kinds of defects, including unbounded defects as well as edge, screw and mixed dislocations, i.e. defects with Burgers vectors.
739

Program extraction from coinductive proofs and its application to exact real arithmetic

Miyamoto, Kenji 27 December 2013 (has links) (PDF)
Program extraction has been initiated in the field of constructive mathematics, and it attracts interest not only from mathematicians but also from computer scientists nowadays. From a mathematical viewpoint its aim is to figure out computational meaning of proofs, while from a computer-scientific viewpoint its aim is the study of a method to obtain correct programs. Therefore, it is natural to have both theoretical results and a practical computer system to develop executable programs via program extraction. In this Thesis we study the computational interpretation of constructive proofs involving inductive and coinductive reasoning. We interpret proofs by translating the computational content of proofs into executable program code. This translation is the procedure we call program extraction and it is given through Kreisel's modified realizability. Here we study a proof-theoretic foundation for program extraction, enriching the proof assistant system Minlog based on this theoretical improvement. Once a proof of a formula is written in Minlog, a program can be extracted from the proof by the system itself, and the extracted program can be executed in Minlog. Moreover, extracted programs are provably correct with respect to the proven formula due to a soundness theorem which we prove. We practice program extraction by elaborating some case studies from exact real arithmetic within our formal theory. Although these case studies have been studied elsewhere, here we offer a formalization of them in Minlog, and also machine-extraction of the corresponding programs. / Die Methode der Programmextraktion hat ihren Ursprung im Bereich der konstruktiven Mathematik, und stößt in letzter Zeit auf viel Interesse nicht nur bei Mathematikern sondern auch bei Informatikern. Vom Standpunkt der Mathematik ist ihr Ziel, aus Beweisen ihre rechnerische Bedeutung abzulesen, während vom Standpunkt der Informatik ihr Ziel die Untersuchung einer Methode ist, beweisbar korrekte Programme zu erhalten. Es ist deshalb naheliegend, neben theoretischen Ergebnissen auch ein praktisches Computersystem zur Verfügung zu haben, mit dessen Hilfe durch Programmextraktion lauffähige Programme entwickelt werden können. In dieser Doktorarbeit wird eine rechnerische Interpretation konstruktiver Beweise mit induktiven und koinduktiven Definitionen angegeben und untersucht. Die Interpretation geschieht dadurch, daß der rechnerische Gehalt von Beweisen in eine Programmiersprache übersetzt wird. Diese übersetzung wird Programmextraktion genannt; sie basiert auf Kreisels modifizierter Realisierbarkeit. Wir untersuchen die beweistheoretischen Grundlagen der Programmextraktion und erweitern den Beweisassistenten Minlog auf der Basis der erhaltenen theoretischen Resultate. Wenn eine Formel in Minlog formal bewiesen ist, läßt sich ein Programm aus dem Beweis extrahieren, und dieses extrahierte Programm kann in Minlog ausgeführt werden. Ferner sind extrahierte Programme beweisbar korrekt bezüglich der entsprechenden Formel aufgrund eines Korrektheitsatzes, den wir beweisen werden. Innerhalb unserer formalen Theorie bearbeiten wir einige aus der Literatur bekannte Fallstudien im Bereich der exakten reellen Arithmetik. Wir entwickeln eine vollständige Formalisierung der entsprechenden Beweise und diskutieren die in Minlog automatisch extrahierten Programme.
740

Forest-fire models and their critical limits

Graf, Robert 15 December 2014 (has links) (PDF)
Forest-fire processes were first introduced in the physics literature as a toy model for self-organized criticality. The term self-organized criticality describes interacting particle systems which are governed by local interactions and are inherently driven towards a perpetual critical state. As in equilibrium statistical physics, the critical state is characterized by long-range correlations, power laws, fractal structures and self-similarity. We study several different forest-fire models, whose common features are the following: All models are continuous-time processes on the vertices of some graph. Every vertex can be "vacant" or "occupied by a tree". We start with some initial configuration. Then the process is governed by two competing random mechanisms: On the one hand, vertices become occupied according to rate 1 Poisson processes, independently of one another. On the other hand, occupied clusters are "set on fire" according to some predefined rule. In this case the entire cluster is instantaneously destroyed, i.e. all of its vertices become vacant. The self-organized critical behaviour of forest-fire models can only occur on infinite graphs such as planar lattices or infinite trees. However, in all relevant versions of forest-fire models, the destruction mechanism is a priori only well-defined for finite graphs. For this reason, one starts with a forest-fire model on finite subsets of an infinite graph and then takes the limit along increasing sequences of finite subsets to obtain a new forest-fire model on the infinite graph. In this thesis, we perform this kind of limit for two classes of forest-fire models and investigate the resulting limit processes.

Page generated in 0.0756 seconds