• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 3
  • 3
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Fast Galactic Structure Finding using Graphics Processing Units

Wood, Daniel 01 June 2014 (has links)
Cosmological simulations are used by astronomers to investigate large scale structure formation and galaxy evolution. Structure nding, that is, the discovery of gravitationally-bound objects such as dark matter halos, is a crucial step in many such simulations. During recent years, advancing computational capacity has lead to halo-nders needing to manage increasingly larger simulations. As a result, many multi-core solutions have arisen in an attempt to process these simulations more eciently. However, a many-core approach to the problem using graphics processing units (GPUs) appears largely unexplored. Since these simulations are inherently n-body problems, they contain a high degree of parallelism, which makes them very well suited to a GPU architecture. Therefore, it makes sense to determine the potential for further research in halo-nding algorithms on a GPU. We present a number of modified algorithms, for accelerating the identication of halos and sub-structures, using entry-level graphics hardware. The algorithms are based on an adaptive hierarchical renement of the friends-of-friends (FoF) method using six phase-space dimensions: This allows for robust tracking of sub-structures. These methods are highly amenable to parallel implementation and run on GPUs. We implemented four separate systems; two on GPUs and two on CPUs. The first system for both CPU and GPU was implemented as a proof of concept exercise to familiarise us with the problem: These utilised minimum spanning trees (MSTs) and brute force methods. Our second implementation, for the CPU and GPU, capitalised on knowledge gained from the proof of concept applications, leading us to use kd-trees to efficiently solve the problem. The CPU implementations were intended to serve as benchmarks for our GPU applications. In order to verify the efficacy of the implemented systems, we applied our halo finders to cosmological simulations of varying size and compared the results obtained to those given by a widely used FoF commercial halo-finder. To conduct a fair comparison, CPU benchmarks were implemented using well-known libraries optimised for these calculations. The best performing implementation, with minimal optimisation, used kd-trees on the GPU. This achieved a 12x speed-up over our CPU implementation, which used similar methods. The same GPU implementation was compared with a current, widely-used commercial halo finder FoF system, and achieved a 2x speed-up for up to 5 million particles. Results suggest a scalable solution, where speed-up increases with the size of dataset used. We conclude that there is great potential for future research into an optimised kd-tree implementation on graphics hardware for the problem of structure finding in cosmological simulations.
2

Acceleration of the noise suppression component of the DUCHAMP source-finder.

Badenhorst, Scott 01 January 2015 (has links)
The next-generation of radio interferometer arrays - the proposed Square Kilometre Array (SKA) and its precursor instruments, The Karoo Array Telescope (MeerKAT) and Australian Square Kilometre Pathfinder (ASKAP) - will produce radio observation survey data orders of magnitude larger than current sizes. The sheer size of the imaged data produced necessitates fully automated solutions to accurately locate and produce useful scientific data for radio sources which are (for the most part) partially hidden within inherently noisy radio observations (source extraction). Automated extraction solutions exist but are computationally expensive and do not yet scale to the performance required to process large data in practical time-frames. The DUCHAMP software package is one of the most accurate source extraction packages for general (source shape unknown) source finding. DUCHAMP's accuracy is primarily facilitated by the à trous wavelet reconstruction algorithm, a multi-scale smoothing algorithm which suppresses erratic observation noise. This algorithm is the most computationally expensive and memory intensive within DUCHAMP and consequently improvements to it greatly improve overall DUCHAMP performance. We present a high performance, multithreaded implementation of the à trous algorithm with a focus on `desktop' computing hardware to enable standard researchers to do their own accelerated searches. Our solution consists of three main areas of improvement: single-core optimisation, multi-core parallelism and the efficient out-of-core computation of large data sets with memory management libraries. Efficient out-of-core computation (data partially stored on disk when primary memory resources are exceeded) of the à trous algorithm accounts for `desktop' computing's limited fast memory resources by mitigating the performance bottleneck associated with frequent secondary storage access. Although this work focuses on `desktop' hardware, the majority of the improvements developed are general enough to be used within other high performance computing models. Single-core optimisations improved algorithm accuracy by reducing rounding error and achieved a 4 serial performance increase which scales with the filter size used during reconstruction. Multithreading on a quad-core CPU further increased performance of the filtering operations within reconstruction to 22 (performance scaling approximately linear with increased CPU cores) and achieved 13 performance increase overall. All evaluated out-of-core memory management libraries performed poorly with parallelism. Single-threaded memory management partially mitigated the slow disk access bottleneck and achieved a 3.6 increase (uniform for all tested large data sets) for filtering operations and a 1.5 increase overall. Faster secondary storage solutions such as Solid State Drives or RAID arrays are required to process large survey data on `desktop' hardware in practical time-frames.
3

Methodenentwicklung zur GIS-gestützten Standortanalyse von Solaranlagen auf Grundlage hochauflösender Laserscandaten / Developing methods for GIS-based site analysis of solar systems based on high-resolution laser scan data

Ludwig, Dorothea 08 March 2016 (has links)
Ziel der Arbeit ist die Methodenentwicklung zur Berechnung des Solarenergiepotenzials auf Dachflächen für sämtliche Gebäude eines großen Gebiets (Stadt, Landkreis) auf Grundlage von Laserscandaten. Die Methode zur Solarpotenzialberechnung wurde mit dem Hintergrund des notwendigen Handlungsbedarfs an Maßnahmen für den Klimaschutz entwickelt. Die Ausgabe des Solarpotenzials auf Dachflächen für alle Gebäude einer Verwaltungseinheit liefert flächendeckende und neutrale Informationen für den Bürger und die Verwaltung. Insbesondere die solare Nutzung auf den keiner Flächenkonkurrenz unterliegenden Dachflächen birgt enormes Potenzial und liefert einen wichtigen Beitrag zur Energiewende. Das Ergebnis dieser Arbeit präsentiert eine Methode, über die eine automatisierte Berechnung des Solarpotenzials auf Dachflächen auf Basis von Laserscandaten mit hoher Genauigkeitsausgabe für große Region realisierbar ist. Die Methode besteht aus sechs Prozessschritten. Es handelt sich um die Datenaufbereitung, die Selektion der homogenen Dachteilflächenbereiche, die Einstrahlungsanalyse, die Verschattungsableitung und die Berechnung des Solarpotenzials. Zudem wird eine Rohdatenkontrolle zur Qualitätsbewertung der Laserscandaten umgesetzt. Zentraler Verfahrensschritt ist die Ableitung der homogenen Dachteilflächen, die unter Berücksichtigung möglichst vieler auch kleiner Dachstrukturen gebildet werden. Das entwickelte Mehrfach-Thresholding Verfahren ermöglicht über die Auswertung der Dachneigung und Dachausrichtung die Separierung von planaren Dachteilflächen. Über den r.sun Algorithmus von GRASS GIS wird die Einstrahlungsanalyse umgesetzt, die den Sonnenstand über den Tag und das Jahr für den Betrachtungsort simuliert und die direkte, diffuse und Globalstrahlung auf die Dachfläche für unterschiedliche Zeitperioden ausgeben lässt. Die Jahressumme der Globalstrahlung wird für jede Dachteilfläche unter Ausschluss stark verschatteter Bereiche errechnet und dient als Grundlage für die Potenzialberechnung. Im Ergebnis enthält jedes Dachteilflächenpolygon Angaben zur geeigneten Modulfläche, zur Höhe der Globalstrahlung, zum potenziellen Stromertrag, zur potenziellen kW-Leistung und zur CO2-Einsparsumme. Datengrundlage sind Laserscandaten, die die Oberflächensituation mit sämtlichen Strukturen abbilden, sowie Gebäudeumringe aus den Liegenschaftsdaten zur Lokalisierung des Gebäudes beziehungsweise des Daches. Laserscandaten eignen sich, abhängig von der Qualität, sehr gut, um im Modell den Betrachtungs- und Einflussraum, der für die Ausgabe des Solarpotenzials auf Dachflächen wichtig ist, flächendeckend und realitätsnah abzubilden. Hier sind insbesondere das Dach insgesamt und die Dachstrukturen sowie die Vegetation, insbesondere Bäume und die Umgebungstopographie die wichtigen Elemente, die flächendeckend und in möglichst hoher Auflösung im Modell vorliegen und berücksichtigt werden sollen, da sie möglicherweise die ertragreiche und wirtschaftliche Nutzung einer Solaranalage verhindern. Über eine rasterbasierte Modellierung ermöglichen diese Daten die Berechnung der Standortparameter wie Dachneigung, Dachausrichtung, Verschattung, Einstrahlungsenergie und Dachflächengröße. An die Laserscandaten werden bestimmte qualitative Anforderungen gestellt, um eine Genauigkeit der Potenzialwerte zu garantieren. Das relativ junge Verfahren wurde in den vergangenen Jahren stark weiter entwickelt, die Lage- und Höhengenauigkeit und Punktdichte wurden deutlich erhöht. Zahlreiche Laserscandatensätze unterschiedlicher Qualität wurden ausgewertet. Die Arbeit beschreibt Mindestanforderungen an die Qualität der Daten, die für eine hohe Qualitätsausgabe des Solarpotenzials benötigt werden. Die Genauigkeit der Solarpotenzialergebnisse wurden über Gebäudepläne realer Objekte, Vor-Ort Messungen und Erträge von bestehenden PV-Anlagen evaluiert. Erzielbare Abweichungen von 2% in der Neigung und 1% in der Ausrichtung sind über die entwickelte Methode auf Grundlage von Laserscandaten mit ausreichender Qualität erreichbar. Größere Abweichungen mit 6% Prozent wurden bei der Dachflächengröße errechnet. Die Bewertung über Referenzanlagen und dessen spezifischem Stromertrag lieferte eine Abweichung von 1,2%. Die Evaluierungsergebnisse bestätigen den Methodenansatz und liefern gute Resultate in der Genauigkeit der Solarpotenzialwerte.

Page generated in 0.044 seconds