• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 24
  • 4
  • Tagged with
  • 66
  • 52
  • 34
  • 34
  • 34
  • 25
  • 21
  • 17
  • 16
  • 13
  • 11
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Effiziente parallele Sortier- und Datenumverteilungsverfahren für Partikelsimulationen auf Parallelrechnern mit verteiltem Speicher

Hofmann, Michael 09 March 2012 (has links)
Partikelsimulationen repräsentieren eine Klasse von daten- und rechenintensiven Simulationsanwendungen, die in unterschiedlichen Bereichen der Wissenschaft und der industriellen Forschung zum Einsatz kommen. Der hohe Berechnungsaufwand der eingesetzten Lösungsmethoden und die großen Datenmengen, die zur Modellierung realistischer Probleme benötigt werden, machen die Nutzung paralleler Rechentechnik hierfür unverzichtbar. Parallelrechner mit verteiltem Speicher stellen dabei eine weit verbreitete Architektur dar, bei der eine Vielzahl an parallel arbeitenden Rechenknoten über ein Verbindungsnetzwerk miteinander Daten austauschen können. Die Berechnung von Wechselwirkungen zwischen Partikeln stellt oft den Hauptaufwand einer Partikelsimulation dar und wird mit Hilfe schneller Lösungsmethoden, wie dem Barnes-Hut-Algorithmus oder der Schnellen Multipolmethode, durchgeführt. Effiziente parallele Implementierungen dieser Algorithmen benötigen dabei eine Sortierung der Partikel nach ihren räumlichen Positionen. Die Sortierung ist sowohl notwendig, um einen effizienten Zugriff auf die Partikeldaten zu erhalten, als auch Teil von Optimierungen zur Erhöhung der Lokalität von Speicherzugriffen, zur Minimierung der Kommunikation und zur Verbesserung der Lastbalancierung paralleler Berechnungen. Die vorliegende Dissertation beschäftigt sich mit der Entwicklung eines effizienten parallelen Sortierverfahrens und der dafür benötigten Kommunikationsoperationen zur Datenumverteilung in Partikelsimulationen. Hierzu werden eine Vielzahl existierender paralleler Sortierverfahren für verteilten Speicher analysiert und mit den Anforderungen von Seiten der Partikelsimulationsanwendungen verglichen. Besondere Herausforderungen ergeben sich dabei hinsichtlich der Aufteilung der Partikeldaten auf verteilten Speicher, der Gewichtung zu sortierender Daten zur verbesserten Lastbalancierung, dem Umgang mit doppelten Schlüsselwerten sowie der Verfügbarkeit und Nutzung speichereffizienter Kommunikationsoperationen. Um diese Anforderungen zu erfüllen, wird ein neues paralleles Sortierverfahren entwickelt und in die betrachteten Anwendungsprogramme integriert. Darüber hinaus wird ein neuer In-place-Algorithmus für der MPI_Alltoallv-Kommunikationsoperation vorgestellt, mit dem der Speicherverbrauch für die notwendige Datenumverteilung innerhalb der parallelen Sortierung deutlich reduziert werden kann. Das Verhalten aller entwickelten Verfahren wird jeweils isoliert und im praxisrelevanten Einsatz innerhalb verschiedener Anwendungsprogramme und unter Verwendung unterschiedlicher, insbesondere auch hochskalierbarer Parallelrechner untersucht.
52

Entwicklung und Evaluation von fehlerspezifischem informativem tutoriellem Feedback (ITF) für die schriftliche Subtraktion

Huth, Katja 07 December 2004 (has links)
Obwohl das Angebot von Feedback in Lehr-Lernsituationen eine wichtige instruktionale Maßnahme darstellt,um Lernende in ihrem Lernprozess zu unterstützen, wird dessen Potenzial in multimedialen Lernumgebungen nur selten optimal genutzt. Feedback, welches in aller Regel im Anschluss an die Bearbeitung von Lernaufgaben bereitgestellt wird und den Lerner über die Qualität seiner Aufgabenbearbeitung informiert, beschränkt sich häufig auf die Bereitstellung einer richtig/falsch Rückmeldung mit einem sich anschließenden, zusätzlichen Lösungsversuch bzw. der Präsentation der richtigen Lösung. Als prototypisch für diese Art der Feedbackgestaltung erweist sich das in mathematischer Grundschulsoftware implementierte Feedback. Der Lerner erhält weder Informationen zu dem Ort und der Art des Fehlers noch einen Hinweis auf die korrekte Lösungsstrategie. Vor diesem Hintergrund bestand ein zentrales Ziel der vorliegenden Arbeit in der Entwicklung von fehlerspezifischem informativem tutoriellem Feedback (ITF) für die schriftliche Subtraktion auf der Grundlage des heuristischen Feedbackmodells von Narciss (2004) und der aus diesem Modell abgeleiteten Gestaltungsprinzipien für ITF. Obwohl allgemein erwartet wird, dass informatives Feedback lernwirksamer ist als Feedback, welches nur die richtige Lösung präsentiert, konnte diese Annahme durch die Ergebnisse der empirischen Feedbackforschung bisher nicht bestätigt werden. So ist die Feedbackforschung durch eine inkonsistente Befundlage gekennzeichnet. Vor diesem empirischen Hintergrund bestand ein weiteres zentrales Ziel der vorliegenden Arbeit in der Überprüfung der Effektivität des entwickelten fehlerspezifischen ITFs hinsichtlich verschiedener Lern- und motivationaler Parameter. Fehlerspezifisches ITF zeichnet sich dadurch aus, dass bei fehlerhaften Aufgabenlösungen Informationen angeboten werden, die auf der Grundlage einer kognitiven Anforderungs- und Fehleranalyse als korrekturrelevant identifiziert worden waren. Diese korrekturrelevanten Informationen werden dem Lernenden ohne Bekanntgabe der korrekten Lösung präsentiert, so dass sich dieser dazu aufgefordert sieht, die bereitgestellten strategischen Informationen in einem erneuten Lösungsversuch unmittelbar anzuwenden. In zwei Studien mit Viertklässlern wurde dieses computergestützte ITF im Hinblick auf seine Lern- und motivationale Wirksamkeit evaluiert. In der ersten Studie (N = 30) erfolgte diese Evaluation gegen eine Feedbackbedingung, welche das üblicherweise in mathematischer Lernsoftware realisierte Knowledge of Response und Knowledge of Correct Response (KR-KCR) Feedback präsentierte. In der zweiten Studie (N = 105) wurden zwei zusätzliche Feedbackbedingungen "Knowledge about Mistake (KR-KM) und Knowledge on How to proceed (KR-KH)" aufgenommen. Diese sind in ihrem Informationsgehalt zwischen dem ITF und dem KR-KCR Feedbackalgorithmus anzusiedeln. Die Ergebnisse beider Studien bestätigen die postulierte Lern- und motivationale Wirksamkeit des fehlerspezifischen ITFs für die schriftliche Subtraktion. Besonders im Vergleich zu der wenig informativen KR-KCR Feedbackbedingung konnten in beiden Studien signifikante Wirksamkeitsunterschiede nachgewiesen werden. Auch im Vergleich zu den komplexeren Feedbackformen Knowledge about mistake (KR-KM) und Knowledge on how to proceed (KR-KH) konnten für die Schüler der ITF Bedingung bessere Leistungen beobachtet werden, auch wenn diese Unterschiede nur partiell signifikant wurden. Die Ergebnisse der vorliegenden Untersuchungen zeigen, dass es möglich ist, auf der Grundlage des von Narciss (2004) vorgestellten Feedbackmodells und der aus diesem Feedbackmodell abgeleiteten Gestaltungsprinzipien lern- und motivationsförderliches ITF zu entwickeln. So liefern die Ergebnisse beider Studien erste empirische Belege für die Annahme, dass informatives Feedback nicht nur den Lernprozess unterstützt, sondern auch motivationsförderlich wirkt. / Feedback is considered to be an important factor to promote learning and motivation with computer-based training tools. However the findings of studies on the effectiveness of feedback are rather inconsistent. One reason for these inconsistent findings might be that the implementation of feedback is more based on intuition than on well-founded design principles. Therefore the aims of the present work was (1) to develop theoretical well-founded elaborated feedback forms for a procedural skill like the written subtraction, (2) to implement them in an adaptive feedback algorithm that induces the mindful processing of feedback, and (3) to evaluate this elaborated feedback regarding his impact on learning and motivation. Using results from prior feedback research and from cognitive task and error analysis of written subtraction tasks, information relevant to the correction of typical systematic errors (e.g. location of error, source of error, type of error and hints to the correct solution strategy) were selected. This information was used to design different types of bug-related feedback messages. These different feedback messages were arranged in an adaptive bug-related algorithm presenting three levels of feedback with increasing informational value to support the learner in finding the correct solution on his own. Because the developed feedback allows assisted multiple response attempts for an item by providing relevant information for error correction, but no immediate Knowledge of Correct Response (KCR) feedback, and by encouraging the learner to apply the corrective information to a further attempt, this kind of feedback was called bug-related "informative tutoring feedback (ITF)". In two computer-based learning experiments cognitive and motivational effects of this bug-related ITF were evaluated with forth-grade students with difficulties in written subtraction. In the first study (N=30) the bug-related ITF was compared to the effects of a standard Knowledge of Result-Knowledge of Correct Response feedback (KR-KCR) algorithm. In the second study (N=105) two additional feedback algorithms - Knowledge about Mistake (KR-KM) und Knowledge on How to proceed (KR-KH) - were implemented. These both feedback algorithms range between the bug-related ITF and the simple KR-KCR feedback regarding to their amount of information. In both studies significant positive effects of the bug-related ITF compared to the KR-KCR feedback could be found. Regarding to the more informative KR-KM and KR-KH feedback a positive effect of the bug-related ITF could be showed sporadic. These results are discussed in detail.
53

Using the Media as a Means to Develop Students’ Statistical Concepts

Kemp, Marian 02 May 2012 (has links)
In this era of increasingly fast communication people are being exposed to quantitative information, from national and international sources, through a range of media including newspapers, magazines, television, radio, pod-casts, YouTube and other areas of the Internet. Contexts include health statistics, environmental issues, traffic statistics, wars, gun laws and so on. It is becoming more and more important that citizens are able to critically read and interpret this information, and to do so requires an understanding of statistical concepts. Research has shown that students are motivated and engaged in learning through the use of authentic, real life tasks. The media provides current information, which can be used to help develop both students’ awareness of how social issues are constructed as well as vital statistical concepts. This paper proposes that secondary school students\'' application of a model for statistical analysis to material taken from media sources, enhances their understanding of statistical concepts. This model, called the Five Step Framework, is described and exemplified for the particular context of opinion polling.
54

Paper&Pencil Skills in the 21st Century, a Dichotomy?

Meissner, Hartwig, Diephaus, Annabella 07 May 2012 (has links)
There is a worldwide development, better to say a non-development: We teach paper & pencil skills in primary schools almost like we did 30 or 50 or 100 years ago. Till today the primary school teachers spend up to more than 100 hours in the class room to teach and to train old fashioned algorithms though in daily life situations and for business purposes everybody uses a calculator. Why do we waste so much time of our children to teach them things which later on they will not need? We see an emotional dichotomy. Despite the research results from many research projects in many countries there still is the fear that the use of calculators in primary grades will harm mental arithmetic and estimation skills. To explain and to overcome that fear we will reflect the nature of number sense and of paper&pencil skills more carefully. We realize that the development of number sense is an intuitive and unconscious mental process while the ability to get an exact calculation result is trained logically and consciously. To overcome the above dichotomy we must solve the hidden dichotomy number sense versus precise calculation result. We need a new balance. Different types of examples will be given how we can further the development of number sense in a technology dominated curriculum.
55

Energy Measurements of High Performance Computing Systems: From Instrumentation to Analysis

Ilsche, Thomas 31 July 2020 (has links)
Energy efficiency is a major criterion for computing in general and High Performance Computing in particular. When optimizing for energy efficiency, it is essential to measure the underlying metric: energy consumption. To fully leverage energy measurements, their quality needs to be well-understood. To that end, this thesis provides a rigorous evaluation of various energy measurement techniques. I demonstrate how the deliberate selection of instrumentation points, sensors, and analog processing schemes can enhance the temporal and spatial resolution while preserving a well-known accuracy. Further, I evaluate a scalable energy measurement solution for production HPC systems and address its shortcomings. Such high-resolution and large-scale measurements present challenges regarding the management of large volumes of generated metric data. I address these challenges with a scalable infrastructure for collecting, storing, and analyzing metric data. With this infrastructure, I also introduce a novel persistent storage scheme for metric time series data, which allows efficient queries for aggregate timelines. To ensure that it satisfies the demanding requirements for scalable power measurements, I conduct an extensive performance evaluation and describe a productive deployment of the infrastructure. Finally, I describe different approaches and practical examples of analyses based on energy measurement data. In particular, I focus on the combination of energy measurements and application performance traces. However, interweaving fine-grained power recordings and application events requires accurately synchronized timestamps on both sides. To overcome this obstacle, I develop a resilient and automated technique for time synchronization, which utilizes crosscorrelation of a specifically influenced power measurement signal. Ultimately, this careful combination of sophisticated energy measurements and application performance traces yields a detailed insight into application and system energy efficiency at full-scale HPC systems and down to millisecond-range regions.:1 Introduction 2 Background and Related Work 2.1 Basic Concepts of Energy Measurements 2.1.1 Basics of Metrology 2.1.2 Measuring Voltage, Current, and Power 2.1.3 Measurement Signal Conditioning and Analog-to-Digital Conversion 2.2 Power Measurements for Computing Systems 2.2.1 Measuring Compute Nodes using External Power Meters 2.2.2 Custom Solutions for Measuring Compute Node Power 2.2.3 Measurement Solutions of System Integrators 2.2.4 CPU Energy Counters 2.2.5 Using Models to Determine Energy Consumption 2.3 Processing of Power Measurement Data 2.3.1 Time Series Databases 2.3.2 Data Center Monitoring Systems 2.4 Influences on the Energy Consumption of Computing Systems 2.4.1 Processor Power Consumption Breakdown 2.4.2 Energy-Efficient Hardware Configuration 2.5 HPC Performance and Energy Analysis 2.5.1 Performance Analysis Techniques 2.5.2 HPC Performance Analysis Tools 2.5.3 Combining Application and Power Measurements 2.6 Conclusion 3 Evaluating and Improving Energy Measurements 3.1 Description of the Systems Under Test 3.2 Instrumentation Points and Measurement Sensors 3.2.1 Analog Measurement at Voltage Regulators 3.2.2 Instrumentation with Hall Effect Transducers 3.2.3 Modular Instrumentation of DC Consumers 3.2.4 Optimal Wiring for Shunt-Based Measurements 3.2.5 Node-Level Instrumentation for HPC Systems 3.3 Analog Signal Conditioning and Analog-to-Digital Conversion 3.3.1 Signal Amplification 3.3.2 Analog Filtering and Analog-To-Digital Conversion 3.3.3 Integrated Solutions for High-Resolution Measurement 3.4 Accuracy Evaluation and Calibration 3.4.1 Synthetic Workloads for Evaluating Power Measurements 3.4.2 Improving and Evaluating the Accuracy of a Single-Node Measuring System 3.4.3 Absolute Accuracy Evaluation of a Many-Node Measuring System 3.5 Evaluating Temporal Granularity and Energy Correctness 3.5.1 Measurement Signal Bandwidth at Different Instrumentation Points 3.5.2 Retaining Energy Correctness During Digital Processing 3.6 Evaluating CPU Energy Counters 3.6.1 Energy Readouts with RAPL 3.6.2 Methodology 3.6.3 RAPL on Intel Sandy Bridge-EP 3.6.4 RAPL on Intel Haswell-EP and Skylake-SP 3.7 Conclusion 4 A Scalable Infrastructure for Processing Power Measurement Data 4.1 Requirements for Power Measurement Data Processing 4.2 Concepts and Implementation of Measurement Data Management 4.2.1 Message-Based Communication between Agents 4.2.2 Protocols 4.2.3 Application Programming Interfaces 4.2.4 Efficient Metric Time Series Storage and Retrieval 4.2.5 Hierarchical Timeline Aggregation 4.3 Performance Evaluation 4.3.1 Benchmark Hardware Specifications 4.3.2 Throughput in Symmetric Configuration with Replication 4.3.3 Throughput with Many Data Sources and Single Consumers 4.3.4 Temporary Storage in Message Queues 4.3.5 Persistent Metric Time Series Request Performance 4.3.6 Performance Comparison with Contemporary Time Series Storage Solutions 4.3.7 Practical Usage of MetricQ 4.4 Conclusion 5 Energy Efficiency Analysis 5.1 General Energy Efficiency Analysis Scenarios 5.1.1 Live Visualization of Power Measurements 5.1.2 Visualization of Long-Term Measurements 5.1.3 Integration in Application Performance Traces 5.1.4 Graphical Analysis of Application Power Traces 5.2 Correlating Power Measurements with Application Events 5.2.1 Challenges for Time Synchronization of Power Measurements 5.2.2 Reliable Automatic Time Synchronization with Correlation Sequences 5.2.3 Creating a Correlation Signal on a Power Measurement Channel 5.2.4 Processing the Correlation Signal and Measured Power Values 5.2.5 Common Oversampling of the Correlation Signals at Different Rates 5.2.6 Evaluation of Correlation and Time Synchronization 5.3 Use Cases for Application Power Traces 5.3.1 Analyzing Complex Power Anomalies 5.3.2 Quantifying C-State Transitions 5.3.3 Measuring the Dynamic Power Consumption of HPC Applications 5.4 Conclusion 6 Summary and Outlook
56

Quantenchemische Studien zum Komplexierungsverhalten ausgewählter Rezeptorsysteme gegenüber Glycosiden und ionischen Substraten

Hübler, Conrad 11 November 2022 (has links)
Im Rahmen dieser Arbeit wurde das Bindungsverhalten makrozyklischer und azyklischer Rezeptorsysteme gegenüber Glycosiden und ionischen Substraten mit modernen semiempirischen und quantenchemischen Methoden untersucht. Für die Analyse der Bindungspräferenz von makrozyklischen Rezeptoren gegenüber ausgewählten Glycosiden wurde ein Arbeitsprotokoll zur Berechnung der Komplexstrukturen entwickelt. Durch die Kombination eines dockingähnlichen Verfahrens mit Molekulardynamiksimulationen wurde die experimentelle Bindungspräferenz von Rezeptorsystemen gegenüber dem Methyl-β-D-Glucopyranosid qualitativ reproduziert. Für azyklische Rezeptorverbindungen wurde die Bindungspräferenz gegenüber Ammonium- und Kaliumionen untersucht. Es wurde diejenige Kombination an Modellen identifiziert, auf deren Basis sich die berechneten freien Bindungsenthalpien von den experimentellen Bindungsenthalpien aus ITC-Analysen weniger als 6 kJ/mol unterscheiden. Die erhaltenen Ergebnisse können daher als Grundlage für ein Screeningprotokoll zur Charakterisierung von Rezeptorsystemen dienen.
57

Untersuchung der CO2-Insertion in die Si-N-Bindung von Aminosilanen mit quantenchemischen Methoden

Gevorgyan, Lia 31 August 2023 (has links)
Diese Dissertation befasst sich mit quantenchemischen Untersuchungen der CO2-Insertion in Si-N-Bindungen von Aminosilanen und der Zuverlässigkeit quantenchemischer Berechnungsmethoden. Es wurden verschiedene Verbindungsklassen, wie Piperazinderivate, Di- und Monoethanolaminderivate, einfache und spirozyklische Aminosilane verwendet. Zunächst wurde ein Benchmarking der verwendeten Berechnungsmethoden durchgeführt, um die für diese Forschung am besten geeigneten Methoden herauszufinden. Quantenchemische Berechnungen wurden genutzt, um die Reaktionen und die möglichen Prozesse aus der Sicht der Thermodynamik zu bewerten. Desweiteren wurde der Mechanismus der CO2-Insertion untersucht. Zu diesem Zweck wurden Geometrieoptimierungen der Übergangszustände durchgeführt, wobei die Aminosilan-CO2-Komplexe mit unterschiedlichem C-N-Abstand berücksichtigt wurden, um den Weg der Reaktanten zum Übergangszustand zu finden. Zusätzlich wurden NBO-Berechnungen durchgeführt, um den Reaktionsmechanismus zu entschlüsseln. Die berechneten IR- und NMR-Spektren wurden mit gemessenen Spektren verglichen und ihre Zuverlässigkeit wurde in der Arbeit bewertet.
58

Numerical Simulation of Short Fibre Reinforced Composites

Springer, Rolf 09 November 2023 (has links)
Lightweight structures became more and more important over the last years. One special class of such structures are short fibre reinforced composites, produced by injection moulding. To avoid expensive experiments for testing the mechanical behaviour of these composites proper material models are needed. Thereby, the stochastic nature of the fibre orientation is the main problem. In this thesis it is looked onto the simulation of such materials in a linear thermoelastic setting. This means the material is described by its heat conduction tensor κ(p), its thermal expansion tensor T(p), and its stiffness tensor C(p). Due to the production process the internal fibre orientation p has to been understood as random variable. As a consequence the previously mentioned material quantities also become random. The classical approach is to average these quantities and solve the linear hermoelastic deformation problem with the averaged expressions. Within this thesis the incorpora- tion of this approach in a time and memory efficient manner in an existing finite element software is shown. Especially for the time and memory efficient improvement several implementation aspects of the underlying software are highlighted. For both - the classical material simulation as well as the time efficient improvement of the software - numerical results are shown. Furthermore, the aforementioned classical approach is extended within this thesis for the simulation of the thermal stresses by using the stochastic nature of the heat conduc tion. This is done by developing it into a series w.r.t. the underlying stochastic. For this series known results from uncertainty quantification are applied. With the help of these results the temperature is developed in a Taylor series. For this Taylor series a suitable expansion point is chosen. Afterwards, this series is incorporated into the computation of the thermal stresses. The advantage of this approach is shown in numerical experiments.
59

Kognitive Determinanten unterschiedlicher Rechenleistungen in der Primarstufe: Arbeitsgedächtnismerkmale und Aufmerksamkeitsaspekte / Cognitive determinants of arithmetic performance in elementary school: The role of working memory and visual selective attention

Roick, Thorsten 04 July 2006 (has links)
No description available.
60

Scalable and Efficient Analysis of Large High-Dimensional Data Sets in the Context of Recurrence Analysis

Rawald, Tobias 13 February 2018 (has links)
Die Recurrence Quantification Analysis (RQA) ist eine Methode aus der nicht-linearen Zeitreihenanalyse. Im Mittelpunkt dieser Methode steht die Auswertung des Inhalts sogenannter Rekurrenzmatrizen. Bestehende Berechnungsansätze zur Durchführung der RQA können entweder nur Zeitreihen bis zu einer bestimmten Länge verarbeiten oder benötigen viel Zeit zur Analyse von sehr langen Zeitreihen. Diese Dissertation stellt die sogenannte skalierbare Rekurrenzanalyse (SRA) vor. Sie ist ein neuartiger Berechnungsansatz, der eine gegebene Rekurrenzmatrix in mehrere Submatrizen unterteilt. Jede Submatrix wird von einem Berechnungsgerät in massiv-paralleler Art und Weise untersucht. Dieser Ansatz wird unter Verwendung der OpenCL-Schnittstelle umgesetzt. Anhand mehrerer Experimente wird demonstriert, dass SRA massive Leistungssteigerungen im Vergleich zu existierenden Berechnungsansätzen insbesondere durch den Einsatz von Grafikkarten ermöglicht. Die Dissertation enthält eine ausführliche Evaluation, die den Einfluss der Anwendung mehrerer Datenbankkonzepte, wie z.B. die Repräsentation der Eingangsdaten, auf die RQA-Verarbeitungskette analysiert. Es wird untersucht, inwiefern unterschiedliche Ausprägungen dieser Konzepte Einfluss auf die Effizienz der Analyse auf verschiedenen Berechnungsgeräten haben. Abschließend wird ein automatischer Optimierungsansatz vorgestellt, der performante RQA-Implementierungen für ein gegebenes Analyseszenario in Kombination mit einer Hardware-Plattform dynamisch bestimmt. Neben anderen Aspekten werden drastische Effizienzgewinne durch den Einsatz des Optimierungsansatzes aufgezeigt. / Recurrence quantification analysis (RQA) is a method from nonlinear time series analysis. It relies on the identification of line structures within so-called recurrence matrices and comprises a set of scalar measures. Existing computing approaches to RQA are either not capable of processing recurrence matrices exceeding a certain size or suffer from long runtimes considering time series that contain hundreds of thousands of data points. This thesis introduces scalable recurrence analysis (SRA), which is an alternative computing approach that subdivides a recurrence matrix into multiple sub matrices. Each sub matrix is processed individually in a massively parallel manner by a single compute device. This is implemented exemplarily using the OpenCL framework. It is shown that this approach delivers considerable performance improvements in comparison to state-of-the-art RQA software by exploiting the computing capabilities of many-core hardware architectures, in particular graphics cards. The usage of OpenCL allows to execute identical SRA implementations on a variety of hardware platforms having different architectural properties. An extensive evaluation analyses the impact of applying concepts from database technology, such memory storage layouts, to the RQA processing pipeline. It is investigated how different realisations of these concepts affect the performance of the computations on different types of compute devices. Finally, an approach based on automatic performance tuning is introduced that automatically selects well-performing RQA implementations for a given analytical scenario on specific computing hardware. Among others, it is demonstrated that the customised auto-tuning approach allows to considerably increase the efficiency of the processing by adapting the implementation selection.

Page generated in 0.0414 seconds