• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 750
  • 286
  • 49
  • 12
  • 1
  • 1
  • Tagged with
  • 1404
  • 702
  • 603
  • 435
  • 340
  • 340
  • 324
  • 315
  • 247
  • 240
  • 240
  • 207
  • 204
  • 204
  • 194
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Singulärstetiges Spektrum kugelsymmetrischer Diracoperatoren

Janauschek, Barbara 06 June 2014 (has links) (PDF)
The physical picture of particle behaviour that arises from experimental data is that it belongs to one of the following: Either the particle always stays near the origin or the particle comes from infinity, is scattered and escapes to infinity. In the quantum mechanical description these two categories of behaviour are associated with point spectrum and absolutely continuous spectrum respectively. The corresponding spectral measures are point measures or absolutely continuous measures. According to general results of the measure theory a measure can be decomposed in three parts: a pure point part, an absolutely continuous part and a singular continuous part. In contrast to the well-known particle behaviour of the other two types of spectrum, the singular continuous spectrum is more difficult to interpret. For the Schrödinger operator D.B. Pearson constructed an explicit class of potentials that give rise to purely singular continuous spectrum . This example allows the interpretation of the particle behaviour: The particle moves arbitrarily far away from the origin but it feels nevertheless the effect of the potential. Therefore it will recur infinitely often to the vicinity of the origin to run off infinitely often. The result for the Schröodinger operator leads to the question whether there can be found similar results in relativistic quantum mechanics. The aim of this paper is to construct for the first time an explicit potential for the Dirac operator that has purely singular continuous spectrum in (-\infty,-1)\cup (1,\infty). The characteristic trait of this potential is that it consists of bumps whose distance is growing rapidly. This allows the particle to depart from the origin arbitrarily far. But the overall effect of the bumps will always lead the particle back to the origin. / In der Experimentalphysik beobachtet man einerseits gebundene Zustände und andererseits Streuzustände. Diesen Zuständen ordnet die klassische Quantenmechanik folgende Spektren zu: Punktspektrum und absolutstetiges Spektrum. Die zugehörigen Spektalmaße sind Punktmaße bzw. absolutstetige Maße. In der Maßtheorie ist statuiert, dass jegliches Maß in drei Bestandteile zerlegt werden kann, nämlich ein Punktmaß, ein absolutstetiges Maß und ein singulärstetiges Maß. Wie läßt sich dieses singulärstetige Spektrum in der Quantenmechanik interpretieren? Für den Schrödingeroperator wurde durch D. B. Pearson eine explizite Potentialklasse konstruiert, die eine Interpretation des Teilchenverhaltens ermöglicht: Bei singulärstetigem Spektrum entfernt sich das Teilchen beliebig weit vom Ursprung, es kehrt aber auch beliebig oft zum Ursprung zurück. Gegenstand der vorliegenden Arbeit ist die Konstruktion einer Potentialklasse, die für Diracsysteme außerhalb der zentralen Lücke [-1,1] rein singulärstetiges Spektrum aufweist. Kennzeichnend für diese Potentiale sind Buckel, deren Abstände immer größer werden. Aufgrund der großen Abstände zwischen den Buckeln kann sich das Teilchen beliebig weit vom Ursprung entfernen. Die Gesamtheit der Potentialbuckel führt jedoch auch dazu, dass das Teilchen unendlich oft in Ursprungsnähe zurückkehren muß. Mit den in der vorliegenden Arbeit konstruierten Potentialen konnte erstmals ein solches Beispiel in der relativistischen Quantenmechanik nachgewiesen werden.
232

Fluid aggregations for Markovian process algebra

Tschaikowski, Max 16 June 2014 (has links) (PDF)
Quantitative analysis by means of discrete-state stochastic processes is hindered by the well-known phenomenon of state-space explosion, whereby the size of the state space may have an exponential growth with the number of objects in the model. When the stochastic process underlies a Markovian process algebra model, this problem may be alleviated by suitable notions of behavioural equivalence that induce lumping at the underlying continuous-time Markov chain, establishing an exact relation between a potentially much smaller aggregated chain and the original one. However, in the modelling of massively distributed computer systems, even aggregated chains may be still too large for efficient numerical analysis. Recently this problem has been addressed by fluid techniques, where the Markov chain is approximated by a system of ordinary differential equations (ODEs) whose size does not depend on the number of the objects in the model. The technique has been primarily applied in the case of massively replicated sequential processes with small local state space sizes. This thesis devises two different approaches that broaden the scope of applicability of efficient fluid approximations. Fluid lumpability applies in the case where objects are composites of simple objects, and aggregates the potentially massive, naively constructed ODE system into one whose size is independent from the number of composites in the model. Similarly to quasi and near lumpability, we introduce approximate fluid lumpability that covers ODE systems which can be aggregated after a small perturbation in the parameters. The technique of spatial aggregation, instead, applies to models whose objects perform a random walk on a two-dimensional lattice. Specifically, it is shown that the underlying ODE system, whose size is proportional to the number of the regions, converges to a system of partial differential equations of constant size as the number of regions goes to infinity. This allows for an efficient analysis of large-scale mobile models in continuous space like ad hoc networks and multi-agent systems.
233

Effekte und Potenziale eines gebogenen interaktiven Displays

Hennecke, Fabian 24 January 2014 (has links) (PDF)
Ein heutiger Computerarbeitsplatz besteht normalerweise aus einer horizontalen Arbeitsfläche und mindestens einem vertikalen Bildschirm. Beide Orientierungen der Arbeitsbereiche haben Vorteile für einzelne Arbeitsschritte. Auf vertikalen Flächen ist beispielsweise das Lesen langer Texte ergonomischer, während das direkte Bearbeiten von Texten auf horizontalen Flächen weniger anstrengend ist. Der Wechsel zwischen den beiden Arbeitsbereichen ist jedoch umständlich, da die horizontale Arbeitsfläche häufig nicht digital ist. Doch selbst die steigende Verbreitung berührungsempfindlicher Bildschirme im horizontalen Arbeitsbereich (z.B. Tablets) löst dieses Problem nicht. Zwar bringen diese Geräte zum einen die Vorteile direkter Interaktion mit sich, führen aber zum anderen zur Frage, wie die digitalen Inhalte zwischen den unterschiedlich orientierten, digitalen Bereichen ausgetauscht werden. Eine Lösung hierfür ist die Kombination unterschiedlich orientierter Displays. Es gibt mehrere Ansätze diese zu kombinieren, jedoch sind die Displays dabei meistens physikalisch voneinander getrennt. Das führt dazu, dass der Nutzer die Displays zum einen eher als separate Einheiten wahrnimmt und zum anderen kein einfacher Übergang zwischen den Displays möglich ist. Eine Verbindungsart, die bis jetzt noch weitgehend unerforscht ist, ist die Kombination beider Displaybereiche durch eine gebogene Verbindung. Die Biegung stellt eine nahtlose Verbindung und einen unterbrechungsfreien Übergang zwischen den Displaybereichen her. Der Effekt eines solchen Übergangs auf die Nutzerinteraktion ist jedoch unbekannt. Die Biegung des Bildschirms eröffnet darüber hinaus auch die Möglichkeit für neuartige Visualisierungen, die von der nahtlosen Kombination unterschiedlicher Displayorientierungen profitieren. Außerdem können auch gewöhnliche, grafische Benutzerschnittstellen hinsichtlich der Displayform optimiert werden. Im Rahmen dieser Arbeit wird ein solches Display vorgestellt und dessen Effekte auf die Nutzerinteraktion und Potenziale für grafische Benutzerschnittstellen untersucht. Der Curve ist ein interaktives Display, das einen horizontalen und einen vertikalen Bereich durch eine nahtlose, gebogene Verbindung kombiniert. Im ersten Teil der Arbeit werden die Entwicklung der Displayform und die technische Umsetzung des Prototyps beschrieben. Anschließend wird im zweiten Teil der Einfluss der Displayform sowohl auf direkte als auch auf indirekte Interaktionsarten evaluiert. Außerdem wird der Curve um eine greifbare Benutzerschnittstelle erweitert und die Auswirkung der Displayform auf die Bedienbarkeit dieser Schnittstelle untersucht. Im dritten Teil werden zwei Visualisierungen und eine vorhandene, grafische Benutzerschnittstelle vorgestellt, die jeweils an die gebogene Displayform angepasst wurden. Die praktischen Erfahrungen aus den Entwicklungsprozessen werden dann in Form von Empfehlungen für vergleichbare Displayprojekte zusammengefasst. Am Ende der Arbeit stehen sowohl Ausgangspunkte für eine technische Weiterentwicklung, als auch weitere exemplarische Anwendungsszenarien, die von der gebogenen Displayform des Curve profitieren können. / The working environment in a current office usually consists of a horizontal working area and at least one vertical digital display. Both workspace orientations offer specific advantages for a certain task. While reading a long documentis easier on a vertical display, editing a document is less exhausting on a horizontal working area. If a user wants to benefit from these advantages the working area has to be changed frequently, which is time-consuming as most of today’s horizontal areas are non-digital. This problem even remains as more and more interactive displays (e.g. tablets) are used on the horizontal surface because the content cannot be seamlessly transferred between them. Although these interactive horizontal displays offer direct interaction with digital content, transferring digital content between both display orientations is cumbersome. A solution for this problem is the combination of differently oriented working areas. There are different ways of combining display areas. Most of them still rely on physically separated displays. This hampers the transfer of documents from one display area to the other. The user also perceives the displays as separated areas. Another way, which could overcome these problems is a curved display connection. While the curved connection allows for a seamless transition between differently oriented display areas, it remains unclear how it simultaneously influences the interaction of the user. Besides this influence on the interaction a curved connection also allows for new ways of visualizing data using both display orientations in a single visualization or an adapted graphical user interface. This thesis presents an approach towards a curved connection of differently oriented display areas. The Curve is an interactive display that seamlessly combines a horizontal display area and a vertically inclined display area with a curved connection. The first part of this work presents the fundamental design of the Curve and its technical implementation in terms of hard- and software. Based on the constructed prototype several studies about the Curve’s influence on basic interaction techniques were conducted and are described in the second part of this thesis. These studies include direct interaction as well as indirect input using a pointing device and a first exploration of a graspable user interface. The next part describes the development of novel visualizations and a graphical user interface, which rely on the Curve’s display form. Lessons learned from these projects led to a first draft of guidelines for the development of similar displays and interfaces, which conclude the third part of this thesis. The last part summarizes the entire thesis and points at possible future steps like the technical improvement of the Curve’s technology and further application scenarios, which might also benefit from a curved display environment.
234

Counteracting phishing through HCI

Maurer, Max-Emanuel 11 April 2014 (has links) (PDF)
Computer security is a very technical topic that is in many cases hard to grasp for the average user. Especially when using the Internet, the biggest network connecting computers globally together, security and safety are important. In many cases they can be achieved without the user's active participation: securely storing user and customer data on Internet servers is the task of the respective company or service provider, but there are also a lot of cases where the user is involved in the security process, especially when he or she is intentionally attacked. Socially engineered phishing attacks are such a security issue were users are directly attacked to reveal private data and credentials to an unauthorized attacker. These types of attacks are the main focus of the research presented within my thesis. I have a look at how these attacks can be counteracted by detecting them in the first place but also by mediating these detection results to the user. In prior research and development these two areas have most often been regarded separately, and new security measures were developed without taking the final step of interacting with the user into account. This interaction mainly means presenting the detection results and receiving final decisions from the user. As an overarching goal within this thesis I look at these two aspects united, stating the overall protection as the sum of detection and "user intervention". Within nine different research projects about phishing protection this thesis gives answers to ten different research questions in the areas of creating new phishing detectors (phishing detection) and providing usable user feedback for such systems (user intervention): The ten research questions cover five different topics in both areas from the definition of the respective topic over ways how to measure and enhance the areas to finally reasoning about what is making sense. The research questions have been chosen to cover the range of both areas and the interplay between them. They are mostly answered by developing and evaluating different prototypes built within the projects that cover a range of human-centered detection properties and evaluate how well these are suited for phishing detection. I also take a look at different possibilities for user intervention (e.g. how should a warning look like? should it be blocking or non-blocking or perhaps even something else?). As a major contribution I finally present a model that combines phishing detection and user intervention and propose development and evaluation recommendations for similar systems. The research results show that when developing security detectors that yield results being relevant for end users such a detector can only be successful in case the final user feedback already has been taken into account during the development process. / Sicherheit rund um den Computer ist ein, für den durchschnittlichen Benutzer schwer zu verstehendes Thema. Besonders, wenn sich die Benutzer im Internet - dem größten Netzwerk unserer Zeit - bewegen, ist die technische und persönliche Sicherheit der Benutzer extrem wichtig. In vielen Fällen kann diese ohne das Zutun des Benutzers erreicht werden. Datensicherheit auf Servern zu garantieren obliegt den Dienstanbietern, ohne dass eine aktive Mithilfe des Benutzers notwendig ist. Es gibt allerdings auch viele Fälle, bei denen der Benutzer Teil des Sicherheitsprozesses ist, besonders dann, wenn er selbst ein Opfer von Attacken wird. Phishing Attacken sind dabei ein besonders wichtiges Beispiel, bei dem Angreifer versuchen durch soziale Manipulation an private Daten des Nutzers zu gelangen. Diese Art der Angriffe stehen im Fokus meiner vorliegenden Arbeit. Dabei werfe ich einen Blick darauf, wie solchen Attacken entgegen gewirkt werden kann, indem man sie nicht nur aufspürt, sondern auch das Ergebnis des Erkennungsprozesses dem Benutzer vermittelt. Die bisherige Forschung und Entwicklung betrachtete diese beiden Bereiche meistens getrennt. Dabei wurden Sicherheitsmechanismen entwickelt, ohne den finalen Schritt der Präsentation zum Benutzer hin einzubeziehen. Dies bezieht sich hauptsächlich auf die Präsentation der Ergebnisse um dann den Benutzer eine ordnungsgemäße Entscheidung treffen zu lassen. Als übergreifendes Ziel dieser Arbeit betrachte ich diese beiden Aspekte zusammen und postuliere, dass Benutzerschutz die Summe aus Problemdetektion und Benutzerintervention' ("user intervention") ist. Mit Hilfe von neun verschiedenen Forschungsprojekten über Phishingschutz beantworte ich in dieser Arbeit zehn Forschungsfragen über die Erstellung von Detektoren ("phishing detection") und das Bereitstellen benutzbaren Feedbacks für solche Systeme ("user intervention"). Die zehn verschiedenen Forschungsfragen decken dabei jeweils fünf verschiedene Bereiche ab. Diese Bereiche erstrecken sich von der Definition des entsprechenden Themas über Messmethoden und Verbesserungsmöglichkeiten bis hin zu Überlegungen über das Kosten-Nutzen-Verhältnis. Dabei wurden die Forschungsfragen so gewählt, dass sie die beiden Bereiche breit abdecken und auf die Abhängigkeiten zwischen beiden Bereichen eingegangen werden kann. Die Forschungsfragen werden hauptsächlich durch das Schaffen verschiedener Prototypen innerhalb der verschiedenen Projekte beantwortet um so einen großen Bereich benutzerzentrierter Erkennungsparameter abzudecken und auszuwerten wie gut diese für die Phishingerkennung geeignet sind. Außerdem habe ich mich mit den verschiedenen Möglichkeiten der Benutzerintervention befasst (z.B. Wie sollte eine Warnung aussehen? Sollte sie Benutzerinteraktion blockieren oder nicht?). Ein weiterer Hauptbeitrag ist schlussendlich die Präsentation eines Modells, dass die Entwicklung von Phishingerkennung und Benutzerinteraktionsmaßnahmen zusammenführt und anhand dessen dann Entwicklungs- und Analyseempfehlungen für ähnliche Systeme gegeben werden. Die Forschungsergebnisse zeigen, dass Detektoren im Rahmen von Computersicherheitsproblemen die eine Rolle für den Endnutzer spielen nur dann erfolgreich entwickelt werden können, wenn das endgültige Benutzerfeedback bereits in den Entwicklungsprozesses des Detektors einfließt.
235

Building a semantic search engine with games and crowdsourcing

Wieser, Christoph 08 May 2014 (has links) (PDF)
Semantic search engines aim at improving conventional search with semantic information, or meta-data, on the data searched for and/or on the searchers. So far, approaches to semantic search exploit characteristics of the searchers like age, education, or spoken language for selecting and/or ranking search results. Such data allow to build up a semantic search engine as an extension of a conventional search engine. The crawlers of well established search engines like Google, Yahoo! or Bing can index documents but, so far, their capabilities to recognize the intentions of searchers are still rather limited. Indeed, taking into account characteristics of the searchers considerably extend both, the quantity of data to analyse and the dimensionality of the search problem. Well established search engines therefore still focus on general search, that is, "search for all", not on specialized search, that is, "search for a few". This thesis reports on techniques that have been adapted or conceived, deployed, and tested for building a semantic search engine for the very specific context of artworks. In contrast to, for example, the interpretation of X-ray images, the interpretation of artworks is far from being fully automatable. Therefore artwork interpretation has been based on Human Computation, that is, a software-based gathering of contributions by many humans. The approach reported about in this thesis first relies on so called Games With A Purpose, or GWAPs, for this gathering: Casual games provide an incentive for a potentially unlimited community of humans to contribute with their appreciations of artworks. Designing convenient incentives is less trivial than it might seem at first. An ecosystem of games is needed so as to collect the meta-data on artworks intended for. One game generates the data that can serve as input of another game. This results in semantically rich meta-data that can be used for building up a successful semantic search engine. Thus, a first part of this thesis reports on a "game ecosystem" specifically designed from one known game and including several novel games belonging to the following game classes: (1) Description Games for collecting obvious and trivial meta-data, basically the well-known ESP (for extra-sensorial perception) game of Luis von Ahn, (2) the Dissemination Game Eligo generating translations, (3) the Diversification Game Karido aiming at sharpening differences between the objects, that is, the artworks, interpreted and (3) the Integration Games Combino, Sentiment and TagATag that generate structured meta-data. Secondly, the approach to building a semantic search engine reported about in this thesis relies on Higher-Order Singular Value Decomposition (SVD). More precisely, the data and meta-data on artworks gathered with the afore mentioned GWAPs are collected in a tensor, that is a mathematical structure generalising matrices to more than only two dimensions, columns and rows. The dimensions considered are the artwork descriptions, the players, and the artwork themselves. A Higher-Order SVD of this tensor is first used for noise reduction in This thesis reports also on deploying a Higher-Order LSA. The parallel Higher-Order SVD algorithm applied for the Higher-Order LSA and its implementation has been validated on an application related to, but independent from, the semantic search engine for artworks striven for: image compression. This thesis reports on the surprisingly good image compression which can be achieved with Higher-Order SVD. While compression methods based on matrix SVD for each color, the approach reported about in this thesis relies on one single (higher-order) SVD of the whole tensor. This results in both, better quality of the compressed image and in a significant reduction of the memory space needed. Higher-Order SVD is extremely time-consuming what calls for parallel computation. Thus, a step towards automatizing the construction of a semantic search engine for artworks was parallelizing the higher-order SVD method used and running the resulting parallel algorithm on a super-computer. This thesis reports on using Hestenes’ method and R-SVD for parallelising the higher-order SVD. This method is an unconventional choice which is explained and motivated. As of the super-computer needed, this thesis reports on turning the web browsers of the players or searchers into a distributed parallel computer. This is done by a novel specific system and a novel implementation of the MapReduce data framework to data parallelism. Harnessing the web browsers of the players or searchers saves computational power on the server-side. It also scales extremely well with the number of players or searchers because both, playing with and searching for artworks, require human reflection and therefore results in idle local processors that can be brought together into a distributed super-computer. / Semantische Suchmaschinen dienen der Verbesserung konventioneller Suche mit semantischen Informationen, oder Metadaten, zu Daten, nach denen gesucht wird, oder zu den Suchenden. Bisher nutzt Semantische Suche Charakteristika von Suchenden wie Alter, Bildung oder gesprochene Sprache für die Auswahl und/oder das Ranking von Suchergebnissen. Solche Daten erlauben den Aufbau einer Semantischen Suchmaschine als Erweiterung einer konventionellen Suchmaschine. Die Crawler der fest etablierten Suchmaschinen wie Google, Yahoo! oder Bing können Dokumente indizieren, bisher sind die Fähigkeiten eher beschränkt, die Absichten von Suchenden zu erkennen. Tatsächlich erweitert die Berücksichtigung von Charakteristika von Suchenden beträchtlich beides, die Menge an zu analysierenden Daten und die Dimensionalität des Such-Problems. Fest etablierte Suchmaschinen fokussieren deswegen stark auf allgemeine Suche, also "Suche für alle", nicht auf spezialisierte Suche, also "Suche für wenige". Diese Arbeit berichtet von Techniken, die adaptiert oder konzipiert, eingesetzt und getestet wurden, um eine semantische Suchmaschine für den sehr speziellen Kontext von Kunstwerken aufzubauen. Im Gegensatz beispielsweise zur Interpretation von Röntgenbildern ist die Interpretation von Kunstwerken weit weg davon gänzlich automatisiert werden zu können. Deswegen basiert die Interpretation von Kunstwerken auf menschlichen Berechnungen, also Software-basiertes Sammeln von menschlichen Beiträgen. Der Ansatz, über den in dieser Arbeit berichtet wird, beruht auf sogenannten "Games With a Purpose" oder GWAPs die folgendes sammeln: Zwanglose Spiele bieten einen Anreiz für eine potenziell unbeschränkte Gemeinde von Menschen, mit Ihrer Wertschätzung von Kunstwerken beizutragen. Geeignete Anreize zu entwerfen in weniger trivial als es zuerst scheinen mag. Ein Ökosystem von Spielen wird benötigt, um Metadaten gedacht für Kunstwerke zu sammeln. Ein Spiel erzeugt Daten, die als Eingabe für ein anderes Spiel dienen können. Dies resultiert in semantisch reichhaltigen Metadaten, die verwendet werden können, um eine erfolgreiche Semantische Suchmaschine aufzubauen. Deswegen berichtet der erste Teil dieser Arbeit von einem "Spiel-Ökosystem", entwickelt auf Basis eines bekannten Spiels und verschiedenen neuartigen Spielen, die zu verschiedenen Spiel-Klassen gehören. (1) Beschreibungs-Spiele zum Sammeln offensichtlicher und trivialer Metadaten, vor allem dem gut bekannten ESP-Spiel (Extra Sensorische Wahrnehmung) von Luis von Ahn, (2) dem Verbreitungs-Spiel Eligo zur Erzeugung von Übersetzungen, (3) dem Diversifikations-Spiel Karido, das Unterschiede zwischen Objekten, also interpretierten Kunstwerken, schärft und (3) Integrations-Spiele Combino, Sentiment und Tag A Tag, die strukturierte Metadaten erzeugen. Zweitens beruht der Ansatz zum Aufbau einer semantischen Suchmaschine, wie in dieser Arbeit berichtet, auf Singulärwertzerlegung (SVD) höherer Ordnung. Präziser werden die Daten und Metadaten über Kunstwerk gesammelt mit den vorher genannten GWAPs in einem Tensor gesammelt, einer mathematischen Struktur zur Generalisierung von Matrizen zu mehr als zwei Dimensionen, Spalten und Zeilen. Die betrachteten Dimensionen sind die Beschreibungen der Kunstwerke, die Spieler, und die Kunstwerke selbst. Eine Singulärwertzerlegung höherer Ordnung dieses Tensors wird zuerst zur Rauschreduktion verwendet nach der Methode der sogenannten Latenten Semantischen Analyse (LSA). Diese Arbeit berichtet auch über die Anwendung einer LSA höherer Ordnung. Der parallele Algorithmus für Singulärwertzerlegungen höherer Ordnung, der für LSA höherer Ordnung verwendet wird, und seine Implementierung wurden validiert an einer verwandten aber von der semantischen Suche unabhängig angestrebten Anwendung: Bildkompression. Diese Arbeit berichtet von überraschend guter Kompression, die mit Singulärwertzerlegung höherer Ordnung erzielt werden kann. Neben Matrix-SVD-basierten Kompressionsverfahren für jede Farbe, beruht der Ansatz wie in dieser Arbeit berichtet auf einer einzigen SVD (höherer Ordnung) auf dem gesamten Tensor. Dies resultiert in beidem, besserer Qualität von komprimierten Bildern und einer signifikant geringeren des benötigten Speicherplatzes. Singulärwertzerlegung höherer Ordnung ist extrem zeitaufwändig, was parallele Berechnung verlangt. Deswegen war ein Schritt in Richtung Aufbau einer semantischen Suchmaschine für Kunstwerke eine Parallelisierung der verwendeten SVD höherer Ordnung auf einem Super-Computer. Diese Arbeit berichtet vom Einsatz der Hestenes’-Methode und R-SVD zur Parallelisierung der SVD höherer Ordnung. Diese Methode ist eine unkonventionell Wahl, die erklärt und motiviert wird. Ab nun wird ein Super-Computer benötigt. Diese Arbeit berichtet über die Wandlung der Webbrowser von Spielern oder Suchenden in einen verteilten Super-Computer. Dies leistet ein neuartiges spezielles System und eine neuartige Implementierung des MapReduce Daten-Frameworks für Datenparallelismus. Das Einspannen der Webbrowser von Spielern und Suchenden spart server-seitige Berechnungskraft. Ebenso skaliert die Berechnungskraft so extrem gut mit der Spieleranzahl oder Suchenden, denn beides, Spiel mit oder Suche nach Kunstwerken, benötigt menschliche Reflektion, was deswegen zu ungenutzten lokalen Prozessoren führt, die zu einem verteilten Super-Computer zusammengeschlossen werden können.
236

Derivation of mean-field dynamics for fermions

Petrat, Sören 15 May 2014 (has links) (PDF)
In this work, we derive the time-dependent Hartree(-Fock) equations as an effective dynamics for fermionic many-particle systems. Our main results are the first for a quantum mechanical mean-field dynamics for fermions; in previous works, the mean-field limit is usually either coupled to a semiclassical limit, or the interaction is scaled down so much, that the system behaves freely for large particle number N. We mainly consider systems with total kinetic energy bounded by const N and long-range interaction potentials, e.g., Coulomb interaction. Examples for such systems are large molecules or certain solid states. Our analysis also applies to attractive interactions, as, e.g., in fermionic stars. The fermionic Hartree(-Fock) equations are a standard tool to describe, e.g., excited states or chemical reactions of large molecules (like proteins). A deeper understanding of these equations as an approximation to the time evolution of a many body quantum system is thus highly relevant. We consider the fermionic Hatree equations (i.e., the Hartree-Fock equations without exchange term) in this work, since the exchange term is subleading in our setting. The main result is that the fermionic Hartree dynamics approximates the Schrödinger dynamics well for large N. This statement becomes exact in the thermodynamic limit N to infinity. We give explicit values for the rates of convergence. We prove two types of results. The first type is very general and concerns arbitrary free Hamiltonians (e.g., relativistic, non-relativistic, with external fields) and arbitrary interactions. The theorems give explicit conditions on the solutions to the fermonic Hartree equations under which a derivation of the mean-field dynamics succeeds. The second type of results scrutinizes situations where the conditions are fulfilled. These results are about non-relativistic free Hamiltonians with external fields, systems with total kinetic energy bounded by const N and with long-range interactions of the form x^(-s), with 0 < s < 6/5 (sometimes, for technical reasons, with a weaker or cut off singularity). We prove our main results by using a new method for deriving mean-field dynamics developed by Pickl in [Lett. Math. Phys., 97(2):151-164, 2011]. This method has been applied successfully in quantum mechanics for deriving the bosonic Hartree and Gross-Pitaevskii equations. Its application to fermions in this work is new. The method is based on a functional that "counts the number of particles outside the condensate", i.e., in the case of fermions, it measures those parts of the Schrödinger wave function that are not in the antisymmetric product of the Hartree states. We show that convergence of the functional to zero (which means that the mean-field equations approximate the dynamics well) is equivalent to convergence of the corresponding reduced one-particle density matrices in trace norm and in Hilbert-Schmidt norm. Finally, we show how also the recently treated semiclassical mean-field limits can be derived with this method. / In dieser Arbeit werden die zeitabhängigen Hartree(-Fock) Gleichungen als effektive Dynamik für fermionische Vielteilchen-Systeme hergeleitet. Die Hauptresultate sind die ersten für eine quantenmechanische Mean-Field Dynamik ("Mittlere-Feld Dynamik") für Fermionen; in vorherigen Arbeiten ist der Mean-Field Limes üblicherweise entweder mit einem semiklassischen Limes gekoppelt oder die Wechselwirkung wird so stark runterskaliert, dass sich das System für große Teilchenzahl N frei verhält. Wir betrachten hauptsächlich Systeme, deren kinetische Energie durch konst N beschränkt ist, und langreichweitige Wechselwirkungen, wie z.B. Coulomb Wechselwirkung. Beispiele für solche Systeme sind große Moleküle oder bestimmte Festkörper. Unsere Analyse gilt auch für anziehende Wechselwirkungen, wie z.B. in fermionischen Sternen. Die fermionischen Hartree(-Fock) Gleichungen sind ein Standardwerkzeug um z.B. angeregte Zustände oder chemische Reaktionen in großen Molekülen (wie Proteinen) zu beschreiben. Ein tieferes Verständnis dieser Gleichungen als Näherung der Zeitentwicklung eines quantenmechanischen Vielteilchen-Systems ist daher äußerst relevant. Wir betrachten in dieser Arbeit die fermionischen Hartree Gleichungen (d.h., die Hartree-Fock Gleichungen ohne Austauschterm), da der Austauschterm in unserem Fall von niedriger Ordnung ist. Das Hauptresultat ist, dass die fermionische Hartree Dynamik die Schrödinger Dynamik für große N gut annähert. Diese Aussage wird im thermodynamischen Limes N gegen unendlich exakt. Wir geben explizite Konvergenzraten an. Es werden zwei Arten von Resultaten bewiesen. Die erste Art ist sehr allgemein und betrifft beliebige freie Hamiltonians (z.B. relativistisch, nicht-relativistisch, mit externen Feldern) und beliebige Wechselwirkungen. Die Theoreme geben explizite Bedingungen an die Lösungen der fermionischen Hartree-Gleichungen an, unter denen eine Herleitung der Mean-Field Dynamik funktioniert. In der zweiten Art von Resultaten wird untersucht für welche Situationen diese Bedingungen erfüllt sind. Diese Resultate sind über nicht-relativistische freie Hamiltonians mit externen Feldern, Systeme mit kinetischer Energie beschränkt durch konst N und mit langreichweitiger Wechselwirkung der Form x^(-s), mit 0 < s < 6/5 (aus technischen Gründen, manchmal mit abgeschnittener oder abgeschwächter Singularität). Die Hauptresultate werden mit einer neuen Methode zur Herleitung von Mean-Field Limiten bewiesen, die von Pickl in [Lett. Math. Phys., 97(2):151-164, 2011] entwickelt wurde. Diese Methode wurde in der Quantenmechanik erfolgreich zur Herleitung der bosonischen Hartree und Gross-Pitaevskii Gleichungen angewandt. Die Anwendung auf Fermionen in dieser Arbeit ist neu. Die Methode basiert auf einem Funktional, das die "Anzahl der Teilchen außerhalb des Kondensats zählt", d.h. im Falle von Fermionen misst es die Anteile der Schrödinger Wellenfunktion, die nicht im antisymmetrisierten Produkt der Hartree-Zustände sind. Wir zeigen, dass die Konvergenz des Funktionals gegen Null (was bedeutet, dass die Mean-Field Gleichungen die Dynamik gut annähern) äquivalent zur Konvergenz der zugehörigen Einteilchen-Dichtematrizen in Spur-Norm und Hilbert-Schmidt-Norm ist. Wir zeigen außerdem wie die kürzlich behandelten semiklassischen Mean-Field Limiten mit dieser Methode hergeleitet werden können.
237

Flexible distributed lag models and their application to geophysical data

Obermeier, Viola 10 April 2014 (has links) (PDF)
Regression models with lagged covariate effects are often used in biostatistical and geo- physical data analysis. In the difficult and all-important subject of earthquake research, strong long-lasting rainfall is assumed to be one of many complex trigger factors that lead to earthquakes. Geophysicists interpret the rain effect with an increase of pore pressure due to the infiltra- tion of rain water over a long time period. Therefore, a sensible statistical regression model examining the influence of rain on the number of earthquakes on day t has to contain rain information of day t and of preceding days t − 1 to t − L. In the first part of this thesis, the specific shape of lagged rain influence on the number of earthquakes is modeled. A novel penalty structure for interpretable and flexible estimates of lag coefficients based on spline representations is presented. The penalty structure enables smoothness of the resulting lag course and a shrinkage towards zero of the last lag coefficient via a ridge penalty. This additional ridge penalty offers an approach to another problem neglected in previous work. With the help of the additional ridge penalty, a suboptimal choice of the lag length L is no longer critical. We propose the use of longer lags, as our simulations indicate that superfluous coefficients are correctly estimated close to zero. We provide a user-friendly implementation of our flexible distributed lag (FDL) ap- proach, that can be used directly in the established R package mgcv for estimation of generalized additive models. This allows our approach to be immediately included in com- plex additive models for generalized responses even in hierarchical or longitudinal data settings, making use of established stable and well-tested algorithms. We demonstrate the performance and utility of the proposed flexible distributed lag model in a case study on (micro-) earthquake data from Mount Hochstaufen, Bavaria with focus on the specific shape of the lagged rain influence on the occurrence of earthquakes in different depths. The complex meteorological and geophysical data set was collected and provided by the Geophysical Observatory of the Ludwig-Maximilians University Munich. The benefit of flexible distributed lag modeling is shown in a detailed simulation study. In the second part of the thesis, the penalization concept is extended to lagged non- linear covariate influence. Here, we extend an approach of Gasparrini et al. (2010), that was up to now unpenalized. Detailed simulation studies illustrate again the benefits of the penalty structure. The flexible distributed lag nonlinear model is applied to data of the volcano Merapi in Indonesia, collected and provided by the Geophysical Observatory in Fürstenfeldbruck. In this data set, the specific shape of lagged rain influence on the occurrence of block and ash flows is examined.
238

Algorithmic methods for systems biology of Herpes-viral microRNAs

Erhard, Florian 27 March 2014 (has links) (PDF)
Recent technological advances have made it possible to measure various parameters of biological processes in a genome-wide manner. While traditional molecular biology focusses on individual processes using targeted experiments (reductionistic approach), the field of systems biology utilizes high-throughput experiments to determine the state of a complete system such as a cell at once (holistic approach). Systems biology is not only carried out in wet-lab, but for the most part also requires tailored computational methods. High-throughput experiments are able to produce massive amounts of data, that are often too complex for a human to comprehend directly, that are affected by substantial noise, i.e. random measurement variation, and that are often subject to considerable bias, i.e. systematic deviations of the measurement from the truth. Thus, computer science and statistical methods are necessary for a proper analysis of raw data from such large-scale experiments. The goal of systems biology is to understand a whole system such as a cell in a quantitative manner. Thus, the computational part does not end with analyzing raw data but also involves visualization, statistical analyses, integration and interpretation. One example for these four computational tasks is as follows: Processes in biological systems are often modeled as networks, for instance, gene regulatory networks (GRNs) that represent the interactions of transcription factors (TFs) and their target genes. Experiments can provide both, the identity and wiring of all constituent parts of the network as well as parameters that allow to describe the processes in the system in a quantative manner. A network provides a straight-forward way to visualize the state and processes of a whole system, its statistical analysis can reveal interesting properties of biological systems, it is able to integrate several datasets from various experiments and simulations of the network can aid to interpret the data. In recent years, microRNAs emerged as important contributors to gene regulation in eukaryotes, breaking the traditional dogma of molecular biology, where DNA is transcribed to RNA which is subsequently translated into proteins. MicroRNAs are small RNAs that are not translated but functional as RNAs: They are able to target specific messenger RNAs (mRNA) and typically lead to their downregulation. Thus, in addition to TFs, microRNAs also play important roles in GRNs. Interestingly, not only animal genomes including the human genome encode microRNAs, but microRNAs are also encoded by several pathogens such as viruses. In this work I developed several computational systems biology methods and applied them to high-throughout experimental data in the context of a project about herpes viral microRNAs. Three methods, ALPS, PARma and REA, are designed for the analysis of certain types of raw data, namely short RNA-seq, PAR-CLIP and RIP-Chip data, respectively. All of theses experiments are widely used and my methods are publicly available on the internet and can be utilized by the research community to analyze new datasets. For these methods I developed non-trivial statistical methods (e.g. the EM algorithm kmerExplain in PARma) and implemented and adapted algorithms from traditional computer science and bioinformatics (e.g. alignment of pattern matrices in ALPS). I applied these novel methods to data measured by our cooperation partners in the herpes virus project. I.a., I discovered and investigated an important aspect of microRNA-mediated regulation: MicroRNAs recognize their targets in a context-dependent manner. The widespread impact of context on regulation is widely accepted for transcriptional regulation, and only few examples are known for microRNA-mediated regulation. By integrating various herpes-related datasets, I could show that context-dependency is not restricted to few examples but is a widespread feature in post-transcriptional regulation mediated by microRNAs. Importantly, this is true for both, for human host microRNAs as well as for viral microRNAs. Furthermore, I considered additional aspects in the data measured in the context of the herpes virus project: Alternative splicing has been shown to be a major contributor to protein diversity. Splicing is tightly regulated and possibly important in virus infection. Mass spectrometry is able to measure peptides quantitatively genome-wide in high-throughput. However, no method was available to detect splicing patterns in mass spectrometry data, which was one of the datasets that has been meausred in the project. Thus, I investigated whether mass spectrometry offers the opportunity to identify cases of differential splicing in large-scale. Finally, I also focussed on networks in systems biology, especially on their simulation. To be able to simulate networks for the prediction of the behavior of systems is one of the central goals in computational systems biology. In my diploma thesis, I developed a comprehensive modeling platform (PNMA, the Petri net modeling application), that is able to simulate biological systems in various ways. For highly detailed simulations, I further developed FERN, a framework for stochastic simulation that is not only integrated in PNMA, but also available stand-alone or as plugins for the widely used software tools Cytoscape or CellDesigner. In systems biology, the major bottleneck is computational analysis, not the generation of data. Experiments become cheaper every year and the throughput and diversity of data increases accordingly. Thus, developing new methods and usable software tools is essential for further progress. The methods I have developed in this work are a step into this direction but it is apparent, that more effort must be devoted to keep up with the massive amounts of data that is being produced and will be produced in the future. / Der technische Fortschritt in den letzten Jahren hat ermöglicht, dass vielerlei Parameter von biologischen Prozessen genomweit gemessen werden können. Während die traditionelle Molekularbiologie sich mit Hilfe gezielter Experimente auf individuelle Prozesse konzentriert (reduktionistischer Ansatz), verwendet das Feld der Systembiologie Hochdurchsatz-Experimente um den Zustand eines vollständigen Systems wie einer Zelle auf einmal zu bestimmen (holistischer Ansatz). Dabei besteht Systembiologie nicht nur aus Laborarbeit, sondern benötigt zu einem großen Teil auch speziell zurechtgeschnittene computergestützte Methoden. Hochdurchsatz-Experimente können riesige Mengen an Daten produzieren, welche oft zu komplex sind um von einem Menschen direkt verstanden zu werden, welche beeinträchtigt sind von substantiellem Rauschen, das heißt zufälliger Messvariation, und welche oft beträchtlichem Bias unterliegen, also systematischen Abweichungen der Messungen von der tatsächlichen Größe. Daher sind informatische und statistische Methoden notwendig für eine geeignete Analyse der Rohdaten eines groß angelegten systembiologischen Experiments. Das Ziel der Systembiologoe ist ein ganzen System wie eine Zelle in quantitativer Weise zu verstehen. Daher endet der computergestützte Teil nicht mit der Analyse der Rohdaten, sondern beinhaltet ebenfalls Visualisierung, statistische Analyse, Integration und Interpretation. Ein Beispiel dieser vier rechnergestützten Aufgaben ist wie folgt: Prozesse in biologischen Systemen werden oft in Netzwerken modelliert. Zum Beispiel werden in genregulatorischen Netzwerken (GRNs) die Interaktionen zwischen Transkriptionsfaktoren (TFs) und deren Zielgenen repräsentiert. Mit Experimenten kann man sowohl die Identität und die Vernetzung aller Bestandteile des Netzwerkes messen, wie auch die Parameter, mit denen man die Prozesse des Systems in quantitativer Weise beschreiben kann. Mit Hilfe eines Netzwerkes kann man auf einfache und direkte Weise den Zustand und die Prozesse eines ganzen Systems visualisieren, die statistische Analyse des Netzwerks kann interessante Eigenschaften eines biologischen Systems aufdecken, es bietet die Möglichkeit, verschiedene experimentelle Daten zu integrieren und seine Simulation kann bei der Interpretation der Daten helfen. Erst vor wenigen Jahren stelle sich heraus, dass sogenannte microRNAs die Genregulation in Eukaryonten maßgeblich beeinflussen. Das steht im Widersprich zum traditionellen Dogma der Molekularbiologie, bei dem die genetische Information aus der DNA in RNA transkribiert wird, welche anschließend in Proteine translatiert wird. MicroRNAs hingegen sind kurze RNAs, welche nicht translatiert werden, sondern als RNAs funktional sind. Sie können spezifische messenger RNAs (mRNAs) binden und führen dann typischerweise zu deren Inhibition. Zusätzlich zu Transkriptionsfaktoren spielen also microRNAs eine wichtige Rolle in GRNs. Interessanterweise enkodieren nicht nur tierische Genome, das menschliche Genom eingeschlossen, microRNAs, sondern viele Pathogene wie Viren exprimieren ihre eigenen microRNAs in infizierten Wirtszellen. In dieser Arbeit habe ich mehrere computergestützte Methoden für die Anwendung in der Systembiologie entwickelt und auf Hochdurchsatz-Daten angewendet, die im Kontext eines Projektes über herpesvirale microRNAs vermessen wurden. Drei Methoden, ALPS, PARma und REA, habe ich für die Analyse von bestimmten Typen von Rohdaten entworfen, nämlich jeweils short RNA-seq, PAR-CLIP und RIP-Chip. All diese Experimente sind weit verbreitet im Einsatz und meine Methoden sind im Internet öffentlich verfügbar und können von der Forschungsgemeinschaft zur Analyse der Rohdaten der jeweiligen Experimente verwendet werden. Für diese Methoden entwickelte ich nicht-triviale statistische Methoden (z.B. den EM Algorithmus kmerExplain in PARma) und implementierte und adaptierte Algorithmen aus der traditionellen Informatik wie auch aus der Bioinformatik (z.B. Sequenzalignment der Mustermatrizen in ALPS). Ich wendete diese neuen Methoden auf Daten an, die von unseren Kooperationspartner im Herpesviren Projekt gemessenen wurden. Dabei entdeckte und erforschte ich unter anderem einen wichtigen Aspekt der Regulation durch microRNAs: MicroRNAs erkennen ihre Targets in kontext-abhängiger Weise. Die weitverbreiteten Auswirkungen von Kontext ist weithin akzeptiert für transkriptionelle Regulation und es sind nur wenige Beispiele von kontext-spezifischer microRNA gesteuerte Regulation bekannt. Indem ich mehrere Herpes-relevante Datensätze integriert analysiert habe, konnte ich zeigen, dass Kontext-Abhängigkeit nicht nur auf ein paar Beispiele beschränkt ist, sondern dass es ebenfalls ein weitverbreitetes Merkmal der post-transkriptionellen Regulation gesteuert durch microRNAs ist, dass Zielgene kontext-abhängig erkannt werden. Das gilt sowohl für die menschlichen microRNAs der Wirtszelle wie auch für die exogenen viralen microRNAs. Desweiteren habe ich zusätzliche Aspekte der Daten des Herpesviren-Projektes betrachtet: Es wurde gezeigt, dass alternatives Spleißen maßgeblich zur Diversität von Proteinen beiträgt. Spleißen ist streng reguliert und möglicherweise wichtig bei der Virusinfektion. Massenspektrometrie kann Peptide genomweit in quantitativer Weise messen. Allerdings stand keine Methode zur Verfügung, um Spleiß-Muster in Massenspektrometrie-Daten, wie sie im Projekt gemessen wurden, zu detektieren. Aus diesem Grund habe ich untersucht, ob es mit Massenspektrometrie-Daten möglich ist, Fälle von alternativen Spleißen im großen Umfang zu identifizieren. Letztendlich habe ich mich auch auf systembiologische Netzwerke und im Speziellen auf deren Simulation konzentriert. Netzwerke simulieren zu können um das Verhalten von Systemen vorherzusagen ist eines der zentralen Ziele der rechnergestützten Systembiologie. Bereits in meiner Diplomarbeit habe dafür ich eine umfassende Modellierplatform (PNMA, the Petri net modelling application) entwickelt. Damit ist es möglich, biologische Systeme auf vielerlei Arten zu simulieren. Für sehr detailierte Simulationen habe ich dann FERN entwickelt, ein Framework zur stochastischen Simulation, welches nicht nur in PNMA integriert ist, sondern auch als eigenständige Software wie auch also Plugin für die weitverbreiteten Programme Cytoscape und CellDesigner verfügbar ist. Der Engpass in der Systembiologie ist mehr und mehr die rechnergestützte Analyse der Daten und nicht deren Generierung. Experimente werden jedes Jahr günstiger und der Durchsatz und die Diversität der Daten wächst dementsprechend. Daher is es für den weiteren wissenschaftlichen Fortschritt essentiell, neue Methoden und benutzbare Softwarepakete zu entwickeln. Die Methoden, die ich in dieser Arbeit entwickelt habe, stellen einen Schritt in diese Richtung dar, aber es ist offensichtlich, dass mehr Anstrengungen aufgewendet werden müssen, um Schritt halten zu können mit den riesigen Mengen an Daten die produziert werden und in der Zukunft noch produziert werden.
239

Orts-, zeit- und kostenbasiertes Ressourcenmanagement im Cloud Computing

Schwanengel, Anna 21 March 2014 (has links) (PDF)
Cloud Computing bietet dem Nutzer die Möglichkeit, virtualisierte Applikationen, Plattformen und sogar Hardware wie Dienste zu nutzen. Der bereitstellende Provider kann die nötige Dienstkapazität in der Cloud elastisch an den aktuellen Bedarf anpassen. Durch die beliebige Ressourcenzuschaltung erwächst jedoch eine erhebliche ökologische und ökonomische Verantwortung. Zudem wird meist teuer überprovisioniert, um im Falle von Lastspitzen das Ablehnen von Anfragen zu vermeiden. Bis heute bietet noch kein Anbieter eine voll automatisierte Lösung zum optimalen Ressourcenmanagement an. Zur Gewährleistung der Skalierbarkeit eines Cloud-basierten Systems bestehen lediglich regelbasierte Mechanismen. Der Nutzer muss die Logik manuell einstellen, um die benötigte Anzahl an Maschinen und ihre Lokalität festzulegen. So sind viele Fragen zu der Ressourcenverwaltung und den entstehenden Kosten für den Cloud-Anwender ungelöst. In dieser Arbeit wird ein Protokoll entwickelt, das eine verbesserte Reihenfolge der Anfragenbearbeitung festlegt und die nötige Ressourcenmenge bestimmt. Die Ressourcenzuteilung basiert zum einen auf der Bedarfsreservierung durch die Ressourcen. Zum anderen kann das Nutzungsverhalten durch den Dienst beeinflusst werden. Die Simulationsergebnisse zeigen so stark reduzierte Antwortzeiten und Verwurfsraten. Im Cloud-Umfeld ist die effiziente Bearbeitung der Anfragen allerdings häufig aufgrund von Abhängigkeiten zwischen den dienstbetreibenden Maschinen beeinträchtigt. Deshalb wird das Protokoll um einen Selbstkalibrierungsmechanismus und ein Ressourcenregelverfahren erweitert. Mit der Abbildung der Abhängigkeiten auf einen Graphen ist das Gesamtsystem skalierbar, ohne die Auslastung aller Ressourcen einzeln kontrollieren zu müssen. Vom menschlichen Benutzer kann man jedoch keine Vorabreservierung bezüglich des Zeitpunkts seiner Dienstnutzung fordern - so wie das von Maschinen problemlos möglich ist. Für diesen Fall ermöglicht die vorliegende Arbeit deshalb die Extrapolation der Nutzerdaten aus Aufzeichnungen sozialer Netzwerke. Ohne Belastung der Anwender wird die Identifikation des Ressourcenbedarfs an einem bestimmten Ort realisiert. Für eine solche Systemadaption führt der in dieser Arbeit entworfene Algorithmus eine ortsspezifische Vorhersagende der nötigen Ressourcenanzahl durch. Diese Informationen dienen als Input für das entwickelte Protokoll und bieten so eine wohlproportionierte Provisionierung. Die bei Skalierungen entstehenden Kosten sind meist schwer abzuschätzen. Aus diesem Grund werden im Verlauf dieser Arbeit Kostenfunktionen für den Nutzer und den Anbieter erstellt. Sie machen das optimale Mittel zwischen geringeren Kosten bei niedriger Ressourcenmenge und höherer Nutzerzufriedenheit bei großzügiger Kapazitätsabdeckung berechenbar. Eine prototypische Umsetzung einschließlich verschiedener Simulationen zeigt, dass die entwickelten Ansätze ein deutlich verbessertes automatisiertes Ressourcenmanagement umsetzen. / Cloud computing offers the possibility to use virtual applications, platforms and even hardware as a service. The cloud provider can elastically adapt resource capacity to the users' demand. However, from any desired resource provisioning also an enormous ecological and economical responsibility accrues. Besides, often costly overprovisioning is conducted in order to avoid request drops on load peaks. Until today, instance allocation is not yet fully automated by vendors. Only rule-based mechanisms exist to react on load changes. The user needs to manually implement logics for defining the amount of resources, as well as the instance location. Hence, many questions about resource management and emerging costs remain. In this work, a protocol is developed, which defines an optimal schedule for all clients and needed resources. The resource management is based on the demand reservation by the user. On the other hand the client usage can be delayed by the cloud service. The simulation shows good results regarding response times and drop rates. Efficient scheduling in cloud systems, however, is often restricted by dependencies among the claimed resources. For that reason, the protocol was extended by a self-calibration- and a resource-regulation-method. With an appropriate mapping, it is possible to scale the whole system based on the dependency model without observing each instance utilization. Human users can - contrary to machines - not be forced to determine their service usage in advance. By extrapolating records of the social Web, resource demands can be procured without burden the user. With this data, increasing load on popular services at a specific location can be deducted and resources can be scaled accordingly. For system adaptation, the algorithm presented in this work enables location-based determination of required resource amounts. This serves as input for the developed protocol, while offering well-proportioned provisioning. On scaling, generally emerging costs are difficult to estimate. For that reason cost functions for users and providers are developed. This enables the finding of an optimized trade-off between low emerging costs and a high user satisfaction. Proven by prototypical implementation and simulations, all developed approaches enable an optimized and automated resource management.
240

Crowdsourcing for linguistic field research and e-learning

Kneißl, Fabian 01 April 2014 (has links) (PDF)
Crowdsourcing denotes the transfer of work commonly carried out by single humans to a large group of people. Nowadays, crowdsourcing is employed for many purposes, like people contributing their knowledge to Wikipedia, researchers predicting diseases from data on Twitter, or players solving protein folding problems in games. Still, there are areas for which the application of crowdsourcing has not yet been investigated thoroughly. This thesis examines crowdsourcing for two such areas: for empirical research in sciences oriented on humans -focusing on linguistic field research- and for e-learning. Sciences oriented on humans -like linguistics, sociology, or art history- depend on empirical research. For example, in traditional linguistic field research researchers ask questions and fill in forms. Such methods are time-consuming, costly, and not free of biases. This thesis proposes the application of crowdsourcing techniques to overcome these disadvantages and to support empirical research in getting more efficient. Therefore, the concept of a generic market for trading with symbolic goods and speculating on their characteristics in a playful manner, called Agora is introduced. Agora aims to be an "operating system" for social media applications gathering data. Furthermore, the Web-based crowdsourcing platform metropolitalia has been established for hosting two social media applications based upon Agora: Mercato Linguistico and Poker Parole. These applications have been conceived as part of this thesis for gathering complementary data and meta-data on Italian language varieties. Mercato Linguistico incites players to express their own knowledge or beliefs, Poker Parole incites players to make conjectures on the contributions of others. Thereby the primary meta-data collected with Mercato Linguistico are enriched with secondary, reflexive meta-data from Poker Parole, which are needed for studies on the perception of languages. An evaluation of the data gathered on metropolitalia exhibits the viability of the market-based approach of Agora and highlights its strengths. E-learning is concerned with the use of digital technology for learning, nowadays especially via the Internet. This thesis investigates how e-learning applications can support students with association-based learning and lecturers with teaching. For that, a game-like e-learning tool named Termina is proposed in this thesis. From the data collected with Termina association maps are constructed. An association map is a simplified version of a concept map, in which concepts are represented as rectangles and relationships between concepts as links. They constitute an abstract comprehension of a topic. Students profit from the association maps' availability, learn from other participating students, and can track their own learning progress. Lecturers gain insights into the knowledge and into potential misunderstandings of their students. An evaluation of Termina and the collected data along a university course exhibits Termina's usefulness for both students and lecturers. The main contributions of this thesis are (1) a literature review over collective intelligence, crowdsourcing, and related fields, (2) a model of a generic market for gathering data for empirical research efficiently, (3) two applications based on this model and results of an evaluation of the data gathered with them, (4) the game-like e-learning tool Termina together with insights from its evaluation, and (5) a generic software architecture for all aforementioned applications. / Crowdsourcing bezeichnet die Auslagerung von Arbeit an eine Gruppe von Menschen zur Lösung eines Problems. Heutzutage wird Crowdsourcing für viele Zwecke verwendet, zum Beispiel tragen Leute ihr Wissen zu Wikipedia bei, Wissenschaftler sagen Krankheiten anhand von Twitter-Daten vorher oder Spieler lösen Proteinfaltungsprobleme in Spielen. Es gibt dennoch Gebiete, für die der Einsatz von Crowdsourcing noch nicht gründlich untersucht wurde. Diese Arbeit untersucht Crowdsourcing für zwei solche Gebiete: für empirische Forschung in auf den Menschen bezogenen Wissenschaften mit Fokus auf linguistischer Feldforschung sowie für E-Learning. Auf den Menschen bezogene Wissenschaften wie Linguistik, Soziologie oder Kunstgeschichte beruhen auf empirischer Forschung. In traditioneller linguistischer Feldforschung zum Beispiel stellen Wissenschaftler Fragen und füllen Fragebögen aus. Solche Methoden sind zeitaufwändig, teuer und nicht unbefangen. Diese Arbeit schlägt vor, Crowdsourcing-Techniken anzuwenden, um diese Nachteile zu überwinden und um empirische Forschung effizienter zu gestalten. Dazu wird das Konzept eines generischen Marktes namens Agora für den Handel mit symbolischen Gütern und für die Spekulation über deren Charakteristika eingeführt. Agora ist ein generisches "Betriebssystem" für Social Media Anwendungen. Außerdem wurde die Internet-basierte Crowdsourcing-Plattform metropolitalia eingerichtet, um zwei dieser Social Media Anwendungen, die auf Agora basieren, bereitzustellen: Mercato Linguistico und Poker Parole. Diese Anwendungen wurden als Teil dieser Arbeit entwickelt, um komplementäre Daten und Metadaten über italienische Sprachvarietäten zu sammeln. Mercato Linguistico regt Spieler dazu an, ihr eigenes Wissen und ihre Überzeugungen auszudrücken. Poker Parole regt Spieler dazu an, Vermutungen über die Beiträge anderer Spieler anzustellen. Damit werden die mit Mercato Linguistico gesammelten primären Metadaten mit reflexiven sekundären Metadaten aus Poker Parole, die für Studien über die Wahrnehmung von Sprachen notwendig sind, bereichert. Eine Auswertung der auf metropolitalia gesammelten Daten zeigt die Zweckmäßigkeit des marktbasierten Ansatzes von Agora und unterstreicht dessen Stärken. E-Learning befasst sich mit der Verwendung von digitalen Technologien für das Lernen, heutzutage vor allem über das Internet. Diese Arbeit untersucht, wie E-Learning-Anwendungen Studenten bei assoziationsbasiertem Lernen und Dozenten bei der Lehre unterstützen können. Dafür wird eine Spiel-ähnliche Anwendung namens Termina in dieser Arbeit eingeführt. Mit den über Termina gesammelten Daten werden Association-Maps konstruiert. Eine Association-Map ist eine vereinfachte Variante einer Concept-Map, in der Begriffe als Rechtecke und Beziehungen zwischen Begriffen als Verbindungslinien dargestellt werden. Sie stellen eine abstrakte Zusammenfassung eines Themas dar. Studenten profitieren von der Verfügbarkeit der Association-Maps, lernen von anderen Studenten und können ihren eigenen Lernprozess verfolgen. Dozenten bekommen Einblicke in den Wissensstand und in eventuelle Missverständnisse ihrer Studenten. Eine Evaluation von Termina und der damit gesammelten Daten während eines Universitätskurses bestätigt, dass Termina sowohl für Studenten als auch für Dozenten hilfreich ist. Die Kernbeiträge dieser Arbeit sind (1) eine Literaturrecherche über kollektive Intelligenz, Crowdsourcing und verwandte Gebiete, (2) ein Modell eines generischen Marktes zur effizienten Sammlung von Daten für empirische Forschung, (3) zwei auf diesem Modell basierende Anwendungen und Ergebnisse deren Evaluation, (4) die Spiel-ähnliche E-Learning-Anwendung Termina zusammen mit Einblicken aus dessen Evaluation und (5) eine generische Softwarearchitektur für alle vorgenannten Anwendungen.

Page generated in 0.057 seconds