41 |
Programmtransformationen für Vielteilchensimulationen auf Multicore-RechnernSchwind, Michael 01 December 2010 (has links)
In dieser Dissertation werden Programmtransformationen für die Klasse
der regulär-irregulären Schleifenkomplexe, welche typischerweise in
komplexen Simulationscodes für Vielteilchensysteme auftreten,
betrachtet. Dabei wird die Effizienz der resultierenden Programme auf
modernen Multicore-Systemen untersucht. Reguläre Schleifenkomplexe
zeichnen sich durch feste Schleifengrenzen und eine regelmäßige
Struktur der Abhängigkeiten der Berechnungen aus, bei irregulären
Berechnungen sind Abhängigkeiten zwischen Berechnungen erst zur
Laufzeit bekannt und stark von den Eingabedaten abhängig. Die hier
betrachteten regulären-irregulären Berechnungen koppeln beide Arten
von Berechnungen eng. Die Herausforderung der effizienten Realisierung
regulär-irregulärer Schleifenkomplexe auf modernen Multicore-Systemen
liegt in der Kombination von Transformationstechnicken, die sowohl ein
hohes Maß an Parallelität erlauben als auch die Lokalität der
Berechnungen berücksichtigen.
Moderne Multicore-Systeme bestehen aus einer komplexen
Speicherhierachie aus privaten und gemeinsam genutzten Caches, sowie
einer gemeinsamen Speicheranbindung. Diese neuen architektonischen
Merkmale machen es notwendig Programmtransformationen erneut zu
betrachten und die Effizienz der Berechnungen neu zu bewerten. Es
werden eine Reihe von Transformationen betrachtet, die sowohl die
Reihenfolge der Berechnungen als auch die Reihenfolge der
Abspeicherung der Daten im Speicher ändern, um eine erhöhte räumliche
und zeitliche Lokalität zu erreichen.
Parallelisierung und Lokalität sind eng verknüpft und beeinflussen
gemeinsam die Effizienz von parallelen Programmen. Es werden in
dieser Arbeit verschiedene Parallelisierungsstrategien für
regulär-irreguläre Berechnungen für moderne Multicore-Systeme
betrachtet.
Einen weiteren Teil der Arbeit bildet die Betrachtung rein irregulärer
Berechnungen, wie sie typisch für eine große Anzahl von
Vielteilchensimualtionscodes sind. Auch diese Simulationscodes wurden
für Multicore-Systeme betrachtet und daraufhin untersucht, inwieweit
diese auf modernen Multicore-CPUs skalieren. Die neuartige Architektur
von Multicore-System, im besonderen die in hohem Maße geteilte
Speicherbandbreite, macht auch hier eine neue Betrachtung solcher rein
irregulärer Berechnungen notwendig. Es werden Techniken betrachtet,
die die Anzahl der zu ladenden Daten reduzieren und somit die
Anforderungen an die gemeinsame Speicherbandbreite reduzieren.
|
42 |
Verteilte Mobilität - Eine spannende HerausforderungWerner, Matthias 05 July 2013 (has links)
Cyber-physikalische Systeme (CPS) sind eine erweitere Sicht auf eingebettete Systeme, die die konkreten umgebenden Elemente in das Systemdesign einbeziehen. Das Design solcher Systeme erfordert neue Herangehensweisen: Während beispielsweise in "normalen" verteilten Systemen Aspekte wie "Bewegung" oder "Ort" möglichst transparent und damit für den Nutzer unsichtbar gestaltet werden, benötigen CPS-Anwendungen häufig Bewusstsein für Bewegung oder Ort, d.h., sie sind _motion aware_ oder _location aware_.
Die Professur "Betriebssysteme" der TUC hat sich die Frage gestellt, wie eine generische Unterstützung für solche verteilte mobile Systeme aussehen könnte. Im Vortrag werden Probleme, Konzepte und erste Lösungsansätze für ein künftiges Betriebssystem für diese Art von Systemen vorgestellt.
|
43 |
Effiziente parallele Sortier- und Datenumverteilungsverfahren für Partikelsimulationen auf Parallelrechnern mit verteiltem SpeicherHofmann, Michael 09 March 2012 (has links)
Partikelsimulationen repräsentieren eine Klasse von daten- und rechenintensiven Simulationsanwendungen, die in unterschiedlichen Bereichen der Wissenschaft und der industriellen Forschung zum Einsatz kommen. Der hohe Berechnungsaufwand der eingesetzten Lösungsmethoden und die großen Datenmengen, die zur Modellierung realistischer Probleme benötigt werden, machen die Nutzung paralleler Rechentechnik hierfür unverzichtbar. Parallelrechner mit verteiltem Speicher stellen dabei eine weit verbreitete Architektur dar, bei der eine Vielzahl an parallel arbeitenden Rechenknoten über ein Verbindungsnetzwerk miteinander Daten austauschen können. Die Berechnung von Wechselwirkungen zwischen Partikeln stellt oft den Hauptaufwand einer Partikelsimulation dar und wird mit Hilfe schneller Lösungsmethoden, wie dem Barnes-Hut-Algorithmus oder der Schnellen Multipolmethode, durchgeführt. Effiziente parallele Implementierungen dieser Algorithmen benötigen dabei eine Sortierung der Partikel nach ihren räumlichen Positionen. Die Sortierung ist sowohl notwendig, um einen effizienten Zugriff auf die Partikeldaten zu erhalten, als auch Teil von Optimierungen zur Erhöhung der Lokalität von Speicherzugriffen, zur Minimierung der Kommunikation und zur Verbesserung der Lastbalancierung paralleler Berechnungen.
Die vorliegende Dissertation beschäftigt sich mit der Entwicklung eines effizienten parallelen Sortierverfahrens und der dafür benötigten Kommunikationsoperationen zur Datenumverteilung in Partikelsimulationen. Hierzu werden eine Vielzahl existierender paralleler Sortierverfahren für verteilten Speicher analysiert und mit den Anforderungen von Seiten der Partikelsimulationsanwendungen verglichen. Besondere Herausforderungen ergeben sich dabei hinsichtlich der Aufteilung der Partikeldaten auf verteilten Speicher, der Gewichtung zu sortierender Daten zur verbesserten Lastbalancierung, dem Umgang mit doppelten Schlüsselwerten sowie der Verfügbarkeit und Nutzung speichereffizienter Kommunikationsoperationen. Um diese Anforderungen zu erfüllen, wird ein neues paralleles Sortierverfahren entwickelt und in die betrachteten Anwendungsprogramme integriert. Darüber hinaus wird ein neuer In-place-Algorithmus für der MPI_Alltoallv-Kommunikationsoperation vorgestellt, mit dem der Speicherverbrauch für die notwendige Datenumverteilung innerhalb der parallelen Sortierung deutlich reduziert werden kann. Das Verhalten aller entwickelten Verfahren wird jeweils isoliert und im praxisrelevanten Einsatz innerhalb verschiedener Anwendungsprogramme und unter Verwendung unterschiedlicher, insbesondere auch hochskalierbarer Parallelrechner untersucht.
|
44 |
Framework zur Innenraumpositionierung unter Verwendung freier, offener Innenraumkarten und InertialsensorikGraichen, Thomas, Weichold, Steffen, Bilda, Sebastian 07 February 2017 (has links)
In der vorliegenden Publikation wird ein Verfahren beschrieben, dass eine infrastrukturlose Positionierung im Inneren von Gebäuden ermöglicht. Unter infrastrukturlos wird in diesem Zusammenhang die autarke Positionierung eines Systems auf Basis seiner Inertialsensorik ohne den Einsatz von im Gebäude installierter Zusatzlösungen, wie Funksysteme, verstanden. Aufgrund der insbesondere über die Zeit erhöhten Fehlerbehaftung solcher Sensoren werden bei diesem Verfahren Innenraumkarten in den Lokalisierungsprozess einbezogen. Diese Kartendaten erlauben den Ausschluss invalider Positionen und Bewegungen, wie das Durchqueren von Wänden, und ermöglichen somit eine wesentliche Verbesserung der Ortungsgenauigkeit.
|
45 |
End-User Development of Web-based Decision Support SystemsTschudnowsky, Alexey 29 June 2017 (has links)
Recent innovations in the information technology and computing devices magnified the volume of available information. Today’s decision makers face the challenge of analyzing ever more data in shorter timeframes.
Demand for technology that can efficiently assist systematic data analysis is constantly growing. Development of dedicated information systems is, however, difficult both from organizational and technological point of view. First, traditional software production is a complex and time-consuming process that can not be performed under time-pressure.
Second, changing business conditions and evolving stakeholder needs require solutions that can be efficiently tailored over time. Finally, costs of custom software development are high, so that not all use cases and scenarios can be covered sufficiently.
This thesis proposes a holistic approach to address the challenges above and to enable efficient development of decision support software. The main idea is to empower end users, i.e., decision makers, in constructing their own case-specific solutions. The proposed approach called Web-Composition for End-User Development consists of a systematic process for development and evolution of decision support systems, assistance mechanisms to address lack of programming skills by decision makers and evolution facilities to enable cost- and time-efficient extensibility of user-produced solutions. The thesis describes implementation of the devised principles and ideas in the context of several open-source projects and application scenarios. Applicability and usability of the concepts are demonstrated in user studies with respective target groups.
Based on the outcome analysis the thesis concludes that end users can and should actively participate in construction of decision support software.
|
46 |
On-line analytical processing in distributed data warehousesLehner, Wolfgang, Albrecht, Jens 14 April 2022 (has links)
The concepts of 'data warehousing' and 'on-line analytical processing' have seen a growing interest in the research and commercial product community. Today, the trend moves away from complex centralized data warehouses to distributed data marts integrated in a common conceptual schema. However, as the first part of this paper demonstrates, there are many problems and little solutions for large distributed decision support systems in worldwide operating corporations. After showing the benefits and problems of the distributed approach, this paper outlines possibilities for achieving performance in distributed online analytical processing. Finally, the architectural framework of the prototypical distributed OLAP system CUBESTAR is outlined.
|
47 |
Database Support for 3D-Protein Data Set AnalysisLehner, Wolfgang, Hinneburg, Alexander 25 May 2022 (has links)
The progress in genome research demands for an adequate infrastructure to analyze the data sets. Database systems reflect a key technology to organize data and speed up the analysis process. This paper discusses the role of a relational database system based on the problem of finding frequent substructures in multi-dimensional protein databases. The specific problem consists of producing a set of association rules regarding frequent substructures with different lengths and gaps between the amino acid residues of a protein. From a database point of view, the process of finding association rules building the base for a more in-depth analysis of the data material is split into two parts. The first part performs a discretization of the conformational angle space of a single amino acid residue by computing the nearest neighbor of a given set of representatives. The second part consists in adapting a well-known association rule algorithm to determine the frequent substructures. Both steps within this comprehensive analysis task requires substantial support of the underlying database in order to reduce the programming overhead at the application level.
|
48 |
DIPBench ToolsuiteLehner, Wolfgang, Böhm, Matthias, Habich, Dirk, Wloka, Uwe 27 May 2022 (has links)
So far the optimization of integration processes between heterogeneous data sources is still an open challenge. A first step towards sufficient techniques was the specification of a universal benchmark for integration systems. This DIPBench allows to compare solutions under controlled conditions and would help generate interest in this research area. However, we see the requirement for providing a sophisticated toolsuite in order to minimize the effort for benchmark execution. This demo illustrates the use of the DIPBench toolsuite. We show the macro-architecture as well as the micro-architecture of each tool. Furthermore, we also present the first reference benchmark implementation using a federated DBMS. Thereby, we discuss the impact of the defined benchmark scale factors. Finally, we want to give guidance on how to benchmark other integration systems and how to extend the toolsuite with new distribution functions or other functionalities.
|
49 |
Weißeritz-Info - ein internetgestütztes Informations- und Entscheidungsunterstützungssystem für das Flussgebiet der WeißeritzWalz, Ulrich January 2006 (has links)
In diesem Beitrag wird das am Leibniz-Institut für ökologische Raumentwicklung eV. (IÖR) entwickelte Informations- und Entscheidungsunterstützungssystem „Weißeritz-Info“ vorgestellt, das der Aufbereitung und Bereitstellung von Informationen zum Hochwasserrisikomanagement für das Einzugsgebiet der Weißeritz dient. Zielgruppen sind sowohl Bürger und Landnutzer als auch Entscheidungsträger in Kommunen, Behörden und Verbänden. Erstellt wurde das WebGIS-basierte System für die Initiative „Weißeritz-Regio“, einem Verbund von 26 Institutionen, die seit Ende 2003 auf informeller Basis zusammenarbeiten, um die Hochwasservorsorge im Flussgebiet zu verbessern.
|
50 |
An Approach for Incremental Semi-supervised SVMEmara, Wael, Karnstedt, Mehmed Kantardzic Marcel, Sattler, Kai-Uwe, Habich, Dirk, Lehner, Wolfgang 11 May 2022 (has links)
In this paper we propose an approach for incremental learning of semi-supervised SVM. The proposed approach makes use of the locality of radial basis function kernels to do local and incremental training of semi-supervised support vector machines. The algorithm introduces a se- quential minimal optimization based implementation of the branch and bound technique for training semi-supervised SVM problems. The novelty of our approach lies in the in the introduction of incremental learning techniques to semisupervised SVMs.
|
Page generated in 0.0283 seconds