Spelling suggestions: "subject:"atolerance aux panneaux"" "subject:"gtolerance aux panneaux""
1 |
Design and Implementation of a Distributed Lattice Boltzmann-based Fluid Flow Simulation Tool/Conception et implémentation distribuée d'un outil de simulation d'écoulement de fluide basé sur les méthodes de Lattice BoltzmannDethier, Gérard 20 January 2011 (has links)
<p>Lattice Boltzmann-based (LB) simulations are well suited to the simulation of
fluid flows in complex structures encountered in chemical engineering like
porous media or structured packing used in distillation and reactive
distillation columns. These simulations require large amounts of
memory (around 10 gigabytes) and would require very long execution times
(around 2 years) if executed on a single powerful desktop computer.</p>
<p>The execution of LB simulations in a distributed way (for example, using
cluster computing) can decrease the execution time and reduces the memory
requirements for each computer. Dynamic Heterogeneous Clusters (DHC) is a class
of clusters involving computers inter-connected by a local area network; these
computers are potentially unreliable and do not share the same architecture,
operating system, computational power, etc. However, DHCs are easy to setup and extend,
and are made of affordable computers.</p>
<p>The design and development of a software system which organizes large scale
DHCs in an efficient, scalable and robust way for implementing very large scale
LB simulations is challenging.
In order to avoid that some computers are overloaded and slow
down the overall execution, the heterogeneity of computational power should be
taken into account. In addition, the failure of one or several computers during
the execution of a simulation should not prevent its completion.</p>
<p>In the context of this thesis, a simulation tool called LaBoGrid was
designed. It uses existing static load balancing tools and implements an
original dynamic load balancing method in order to distribute the simulation in
a way that minimizes its execution time. In addition, a distributed and scalable
fault-tolerance mechanism based on the regular saving of simulation's state
is proposed. Finally, LaBoGrid is based on a distributed master-slave
model that is robust and potentially scalable.</p>
<br/>
<p>Les simulations basées sur les méthodes de Lattice Boltzmann sont bien
adaptées aux simulations d'écoulements de fluides à l'intérieur de structures
complexes rencontrées en génie chimique, telles que les milieux poreux ou les
empilements structurés utilisés dans des colonnes de distillation et de
distillation réactive. Elles requièrent toutefois de grandes quantités de
mémoire (environ 10 gigaoctets). Par ailleurs, leur exécution sur un seul
ordinateur de bureau puissant nécessiterait un temps très long (environ deux
ans).</p>
<p>Il est possible de réduire à la fois le temps d'exécution et la quantité de
mémoire requise par ordinateur en exécutant les simulations LB de manière
distribuée, par exemple en utilisant un cluster. Un Cluster Hétérogène
Dynamique (CHD) est une classe de clusters impliquant des ordinateurs
qui sont interconnectés au moyen d'un réseau local, qui ne sont pas
nécessairement fiables et qui ne partagent pas la même architecture, le
même système d'exploitation, la même puissance de calcul, etc. En revanche, les
CHD sont faciles à installer, à étendre et peu coûteux.</p>
<p>Concevoir et développer un logiciel capable de gérer des CHD à grande échelle
de façon efficace, extensible et robuste et capable d'effectuer des simulations
LB à très grande échelle constitue un défi. L'hétérogénéité de la puissance de
calcul doit être prise en compte afin d'éviter que certains ordinateurs soient
débordés et ralentissent le temps global d'exécution. En outre, une panne d'un
ou de plusieurs ordinateurs pendant l'exécution d'une simulation ne devrait pas
empêcher son achèvement.</p>
<p>Dans le contexte de cette thèse, un outil de simulation appelé LaBoGrid a été
conçu. LaBoGrid utilise des outils existants de
répartition statique de la charge et implémente une méthode originale de
répartition dynamique de la charge, ce qui lui permet de distribuer une
simulation LB de manière à minimiser son temps d'exécution. De plus, un mécanisme distribué
et extensible de tolérance aux pannes,
fondé sur une sauvegarde régulière de l'état de simulation, est proposé. Enfin,
LaBoGrid se base sur un modèle distribué de type « maître-esclaves » qui est
robuste et potentiellement extensible.</p>
|
2 |
On numerical resilience in linear algebra / Conception d'algorithmes numériques pour la résilience en algèbre linéaireZounon, Mawussi 01 April 2015 (has links)
Comme la puissance de calcul des systèmes de calcul haute performance continue de croître, en utilisant un grand nombre de cœurs CPU ou d’unités de calcul spécialisées, les applications hautes performances destinées à la résolution des problèmes de très grande échelle sont de plus en plus sujettes à des pannes. En conséquence, la communauté de calcul haute performance a proposé de nombreuses contributions pour concevoir des applications tolérantes aux pannes. Cette étude porte sur une nouvelle classe d’algorithmes numériques de tolérance aux pannes au niveau de l’application qui ne nécessite pas de ressources supplémentaires, à savoir, des unités de calcul ou du temps de calcul additionnel, en l’absence de pannes. En supposant qu’un mécanisme distinct assure la détection des pannes, nous proposons des algorithmes numériques pour extraire des informations pertinentes à partir des données disponibles après une pannes. Après l’extraction de données, les données critiques manquantes sont régénérées grâce à des stratégies d’interpolation pour constituer des informations pertinentes pour redémarrer numériquement l’algorithme. Nous avons conçu ces méthodes appelées techniques d’Interpolation-restart pour des problèmes d’algèbre linéaire numérique tels que la résolution de systèmes linéaires ou des problèmes aux valeurs propres qui sont indispensables dans de nombreux noyaux scientifiques et applications d’ingénierie. La résolution de ces problèmes est souvent la partie dominante; en termes de temps de calcul, des applications scientifiques. Dans le cadre solveurs linéaires du sous-espace de Krylov, les entrées perdues de l’itération sont interpolées en utilisant les entrées disponibles sur les nœuds encore disponibles pour définir une nouvelle estimation de la solution initiale avant de redémarrer la méthode de Krylov. En particulier, nous considérons deux politiques d’interpolation qui préservent les propriétés numériques clés de solveurs linéaires bien connus, à savoir la décroissance monotone de la norme-A de l’erreur du gradient conjugué ou la décroissance monotone de la norme résiduelle de GMRES. Nous avons évalué l’impact du taux de pannes et l’impact de la quantité de données perdues sur la robustesse des stratégies de résilience conçues. Les expériences ont montré que nos stratégies numériques sont robustes même en présence de grandes fréquences de pannes, et de perte de grand volume de données. Dans le but de concevoir des solveurs résilients de résolution de problèmes aux valeurs propres, nous avons modifié les stratégies d’interpolation conçues pour les systèmes linéaires. Nous avons revisité les méthodes itératives de l’état de l’art pour la résolution des problèmes de valeurs propres creux à la lumière des stratégies d’Interpolation-restart. Pour chaque méthode considérée, nous avons adapté les stratégies d’Interpolation-restart pour régénérer autant d’informations spectrale que possible. Afin d’évaluer la performance de nos stratégies numériques, nous avons considéré un solveur parallèle hybride (direct/itérative) pleinement fonctionnel nommé MaPHyS pour la résolution des systèmes linéaires creux, et nous proposons des solutions numériques pour concevoir une version tolérante aux pannes du solveur. Le solveur étant hybride, nous nous concentrons dans cette étude sur l’étape de résolution itérative, qui est souvent l’étape dominante dans la pratique. Les solutions numériques proposées comportent deux volets. A chaque fois que cela est possible, nous exploitons la redondance de données entre les processus du solveur pour effectuer une régénération exacte des données en faisant des copies astucieuses dans les processus. D’autre part, les données perdues qui ne sont plus disponibles sur aucun processus sont régénérées grâce à un mécanisme d’interpolation. / As the computational power of high performance computing (HPC) systems continues to increase by using huge number of cores or specialized processing units, HPC applications are increasingly prone to faults. This study covers a new class of numerical fault tolerance algorithms at application level that does not require extra resources, i.e., computational unit or computing time, when no fault occurs. Assuming that a separate mechanism ensures fault detection, we propose numerical algorithms to extract relevant information from available data after a fault. After data extraction, well chosen part of missing data is regenerated through interpolation strategies to constitute meaningful inputs to numerically restart the algorithm. We have designed these methods called Interpolation-restart techniques for numerical linear algebra problems such as the solution of linear systems or eigen-problems that are the inner most numerical kernels in many scientific and engineering applications and also often ones of the most time consuming parts. In the framework of Krylov subspace linear solvers the lost entries of the iterate are interpolated using the available entries on the still alive nodes to define a new initial guess before restarting the Krylov method. In particular, we consider two interpolation policies that preserve key numerical properties of well-known linear solvers, namely the monotony decrease of the A-norm of the error of the conjugate gradient or the residual norm decrease of GMRES. We assess the impact of the fault rate and the amount of lost data on the robustness of the resulting linear solvers.For eigensolvers, we revisited state-of-the-art methods for solving large sparse eigenvalue problems namely the Arnoldi methods, subspace iteration methods and the Jacobi-Davidson method, in the light of Interpolation-restart strategies. For each considered eigensolver, we adapted the Interpolation-restart strategies to regenerate as much spectral information as possible. Through intensive experiments, we illustrate the qualitative numerical behavior of the resulting schemes when the number of faults and the amount of lost data are varied; and we demonstrate that they exhibit a numerical robustness close to that of fault-free calculations. In order to assess the efficiency of our numerical strategies, we have consideredan actual fully-featured parallel sparse hybrid (direct/iterative) linear solver, MaPHyS, and we proposed numerical remedies to design a resilient version of the solver. The solver being hybrid, we focus in this study on the iterative solution step, which is often the dominant step in practice. The numerical remedies we propose are twofold. Whenever possible, we exploit the natural data redundancy between processes from the solver toperform an exact recovery through clever copies over processes. Otherwise, data that has been lost and is not available anymore on any process is recovered through Interpolationrestart strategies. These numerical remedies have been implemented in the MaPHyS parallel solver so that we can assess their efficiency on a large number of processing units (up to 12; 288 CPU cores) for solving large-scale real-life problems.
|
Page generated in 0.0653 seconds