• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 339
  • 189
  • 134
  • 56
  • 45
  • 44
  • 4
  • 4
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 924
  • 924
  • 924
  • 404
  • 395
  • 351
  • 351
  • 329
  • 325
  • 320
  • 319
  • 316
  • 314
  • 313
  • 313
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
541

ZIH-Info

11 September 2013 (has links) (PDF)
- ZIH-Login-Migration in das neue IDM-System - Verhinderung von E-Mail-Missbrauch - Nutzermigration auf das neue Compute-Cluster „Atlas“ - Datenschutzgerechte Doodle-Alternative - ZIH-Kolloquium - Innovationsforum open4INNOVATION2012 - Wissenschaftliche Projektwoche für Schüler - Neue ZIH-Publikationen - Veranstaltungen
542

ZIH-Info

11 September 2013 (has links) (PDF)
- Aktivierung HPC-Disk-Quotas - Wartungsarbeiten am zentralen Voice-over-IP-System - Benutzerkennungen für Gäste im WLAN“ - Neue Server für Virtualisierungs-Cluster - ZIH-Kolloquium - Workshop zu Forschungsdaten-Infrastruktur - Neue ZIH-Publikationen - Veranstaltungen
543

ZIH-Info

11 September 2013 (has links) (PDF)
- Nachtrag HPC-Disk-Quotas - Upgrade des Voice-over-IP-Systems - Installation CampusNet-Schulungssystem - Schnellere RNA-Assemblierung mit Trinity - Uni-Tag am 9. Juni 2012 - ZIH auf der ISC'12 - ZIH-Kolloquium - Campus 2020: Finaler Wettbewerb - Workshop COLMOTBIO 2012 - Neue ZIH-Publikationen - Veranstaltungen
544

ZIH-Info

11 September 2013 (has links) (PDF)
- Neuerungen bei DFN-PKI-Policy und -Teilnehmerservice - Einfacher Zugang zu geschützten Ressourcen - Ausfall der großen Konferenzanlage im VCC - Neue Systeme für Datenspeicher und Backup/Archiv - Update des Scratch-Dateisystems von Triton und Atlas - Lange Nacht der Wissenschaften 2012 - ZIH-Kolloquien - Neue ZIH-Publikationen - Veranstaltungen
545

ZIH-Info

11 September 2013 (has links) (PDF)
- Teilausfall Datennetz und ZIH-Dienste - IDM-Start verschoben - Projektstart 'GlioMath-Dresden' - Ausbildung zum Fachinformatiker - ZIH-Kolloquium - Effektives Arbeiten im Büro mit Acrobat X - Mitteilungen aus dem Medienzentrum - Neue ZIH-Publikationen - Veranstaltungen
546

ZIH-Info

11 September 2013 (has links) (PDF)
- Neuer, großer zentraler Speicher im ZIH - Überarbeitung des Betriebsstatus - Systemumstellung in den PC-Pools der Informatik - Neue Software-Produkte - Neues Lizenzierungsmodell für Windows Server 2012 - Dresden Science Calendar - ZIH präsentiert sich auf der SC12 in Salt Lake City - ZIH-Kolloquium - Neue ZIH-Publikation - Veranstaltungen
547

ZIH-Info

11 September 2013 (has links) (PDF)
- IDM-Start - HRSK-Wartung - Erweiterung X-WiN-Anschluss - Beschaffungshinweise für Hard- und Software - Comsol Multiphysics Workshop - Systembiologie von Hirntumoren - Mitteilungen aus dem Medienzentrum - Neue ZIH-Publikationen - Veranstaltungen
548

ZIH-Info

11 September 2013 (has links) (PDF)
- ZIH-Benutzerberatung wird in Service Desk integriert - Betriebsbereitschaft zum Jahreswechsel 2012/13 - Notwendige Passwortbestätigung im IDM - Teilnahme an der DFN-AAI-Föderation - Migration von Webmail auf Horde Version 5 - Effiziente und offene Compiler - Empfehlung für die 'Faculty of 1000' - Veranstaltungen
549

ZIH-Info

Unknown Date (has links) (PDF)
- Betriebsbereitschaft zum Jahreswechsel 2015/16 - Wartungsarbeiten im WLAN - Umzug des zentralen Speichersystems abgeschlossen - Goodbye Atlas und Triton - Einsatz und Bezug von Windows 10 - Inbetriebnahme Firewall an der TU Dresden - ZIH-Kolloquium - Parallel Programming Workshop - GPU Hackathon in Dresden - ZIH-Publikationen - Veranstaltungen
550

Memory and performance issues in parallel multifrontal factorizations and triangular solutions with sparse right-hand sides / Problèmes de mémoire et de performance de la factorisation multifrontale parallèle et de la résolution triangulaire à seconds membres creux

Rouet, François-Henry 17 October 2012 (has links)
Nous nous intéressons à la résolution de systèmes linéaires creux de très grande taille sur des machines parallèles. Dans ce contexte, la mémoire est un facteur qui limite voire empêche souvent l’utilisation de solveurs directs, notamment ceux basés sur la méthode multifrontale. Cette étude se concentre sur les problèmes de mémoire et de performance des deux phases des méthodes directes les plus coûteuses en mémoire et en temps : la factorisation numérique et la résolution triangulaire. Dans une première partie nous nous intéressons à la phase de résolution à seconds membres creux, puis, dans une seconde partie, nous nous intéressons à la scalabilité mémoire de la factorisation multifrontale. La première partie de cette étude se concentre sur la résolution triangulaire à seconds membres creux, qui apparaissent dans de nombreuses applications. En particulier, nous nous intéressons au calcul d’entrées de l’inverse d’une matrice creuse, où les seconds membres et les vecteurs solutions sont tous deux creux. Nous présentons d’abord plusieurs schémas de stockage qui permettent de réduire significativement l’espace mémoire utilisé lors de la résolution, dans le cadre d’exécutions séquentielles et parallèles. Nous montrons ensuite que la façon dont les seconds membres sont regroupés peut fortement influencer la performance et nous considérons deux cadres différents : le cas "hors-mémoire" (out-of-core) où le but est de réduire le nombre d’accès aux facteurs, qui sont stockés sur disque, et le cas "en mémoire" (in-core) où le but est de réduire le nombre d’opérations. Finalement, nous montrons comment améliorer le parallélisme. Dans la seconde partie, nous nous intéressons à la factorisation multifrontale parallèle. Nous montrons tout d’abord que contrôler la mémoire active spécifique à la méthode multifrontale est crucial, et que les technique de "répartition" (mapping) classiques ne peuvent fournir une bonne scalabilité mémoire : le coût mémoire de la factorisation augmente fortement avec le nombre de processeurs. Nous proposons une classe d’algorithmes de répartition et d’ordonnancement "conscients de la mémoire" (memory-aware) qui cherchent à maximiser la performance tout en respectant une contrainte mémoire fournie par l’utilisateur. Ces techniques ont révélé des problèmes de performances dans certains des noyaux parallèles denses utilisés à chaque étape de la factorisation, et nous avons proposé plusieurs améliorations algorithmiques. Les idées présentées tout au long de cette étude ont été implantées dans le solveur MUMPS (Solveur MUltifrontal Massivement Parallèle) et expérimentées sur des matrices de grande taille (plusieurs dizaines de millions d’inconnues) et sur des machines massivement parallèles (jusqu’à quelques milliers de coeurs). Elles ont permis d’améliorer les performances et la robustesse du code et seront disponibles dans une prochaine version. Certaines des idées présentées dans la première partie ont également été implantées dans le solveur PDSLin (solveur linéaire hybride basé sur une méthode de complément de Schur). / We consider the solution of very large sparse systems of linear equations on parallel architectures. In this context, memory is often a bottleneck that prevents or limits the use of direct solvers, especially those based on the multifrontal method. This work focuses on memory and performance issues of the two memory and computationally intensive phases of direct methods, that is, the numerical factorization and the solution phase. In the first part we consider the solution phase with sparse right-hand sides, and in the second part we consider the memory scalability of the multifrontal factorization. In the first part, we focus on the triangular solution phase with multiple sparse right-hand sides, that appear in numerous applications. We especially emphasize the computation of entries of the inverse, where both the right-hand sides and the solution are sparse. We first present several storage schemes that enable a significant compression of the solution space, both in a sequential and a parallel context. We then show that the way the right-hand sides are partitioned into blocks strongly influences the performance and we consider two different settings: the out-of-core case, where the aim is to reduce the number of accesses to the factors, that are stored on disk, and the in-core case, where the aim is to reduce the computational cost. Finally, we show how to enhance the parallel efficiency. In the second part, we consider the parallel multifrontal factorization. We show that controlling the active memory specific to the multifrontal method is critical, and that commonly used mapping techniques usually fail to do so: they cannot achieve a high memory scalability, i.e. they dramatically increase the amount of memory needed by the factorization when the number of processors increases. We propose a class of "memory-aware" mapping and scheduling algorithms that aim at maximizing performance while enforcing a user-given memory constraint and provide robust memory estimates before the factorization. These techniques have raised performance issues in the parallel dense kernels used at each step of the factorization, and we have proposed some algorithmic improvements. The ideas presented throughout this study have been implemented within the MUMPS (MUltifrontal Massively Parallel Solver) solver and experimented on large matrices (up to a few tens of millions unknowns) and massively parallel architectures (up to a few thousand cores). They have demonstrated to improve the performance and the robustness of the code, and will be available in a future release. Some of the ideas presented in the first part have also been implemented within the PDSLin (Parallel Domain decomposition Schur complement based Linear solver) solver.

Page generated in 0.0831 seconds