351 |
Mine production index: Development and applicationLanke, Amol January 2014 (has links)
Assuring production forms a crucial part of mining business profitability. Factors related to various mine operations, activities and business processes can threaten required/planned mine production. To address problems and ensure production level in mining, it is necessary to implement a mine production assurance program (MPA). Since such a guideline does not exist for mining as a process industry, this study started by reviewing four such techniques used in similar industries. These methods include: total productive maintenance, six sigma, a method prescribed by European foundation of quality management, and production assurance program (PAP) used in the oil and gas industry.These methods and techniques were reviewed according to their objectives and applications. Their implementation and achieved success was determined through a literature review and field participation/study. Comparing the tools, techniques and focus with mining productivity and production factors, it was observed that applicability of these methods for mining is limited due to a lack of tools for specific analysis or a lack of consideration of the requirements of mining. However, given certain similarities in objective and methods, PAP from the oil and gas industry may provide some guidance for MPA.As a basis of MPA, an index is required to create a clear relationship between different situations which can occur in mining operation and production loss. A literature review on mining productivity improvement methods shows availability, utilisation and production performance of equipment are the key factors in determining overall production. A single index applicable for chain operation in mining is needed. Overall equipment effectiveness (OEE) which includes these three elements has some limitations for application in mining. A Mine Production index (MPi) is thus proposed. This index involves all three parameters for equipment productivity mentioned above. It also consists of weights for each parameter. The weights in this study are determined through expert opinions/judgements using fuzzy analytical hierarchy process (FAHP). Equipment with low MPi can be labelled as bottlenecks. Weights associated with MPi calculation for bottleneck equipment can point out critical factors in equipment operation. Once bottleneck equipment and relevant critical factors are known, further analysis can be carried out to determine the exact cause of production loss.By using MPi for machine operations, it is possible to rank machines in terms of production effectiveness. When the study applied MPi to chain operations in a mining case study, a crusher was determined as bottleneck equipment. Further root cause analysis and uncertainty detection for bottleneck equipment is also possible, and this forms the basis for MPA. / CAMM - Lean mining
|
352 |
Myocardial Perfusion Imaging with X-Ray Computed TomographyEck, Brendan Lee 31 August 2018 (has links)
No description available.
|
353 |
HDArray: PARALLEL ARRAY INTERFACE FOR DISTRIBUTED HETEROGENEOUS DEVICESHyun Dok Cho (18620491) 30 May 2024 (has links)
<p dir="ltr">Heterogeneous clusters with nodes containing one or more accelerators, such as GPUs, have become common. While MPI provides inter-address space communication, and OpenCL provides a process with access to heterogeneous computational resources, programmers are forced to write hybrid programs that manage the interaction of both of these systems. This paper describes an array programming interface that provides users with automatic and manual distributions of data and work. Using work distribution and kernel def and use information, communication among processes and devices in a process is performed automatically. By providing a unified programming model to the user, program development is simplified.</p>
|
354 |
Reducción del Tiempo de Simulación de Redes de Distribución de Agua, mediante el Método de Mallas y la Computación de Altas PrestacionesAlvarruiz Bermejo, Fernando 14 March 2016 (has links)
[EN] Computer simulation of water distribution networks by means of mathematical models is nowadays an indispensable tool for the design and exploitation of those networks. Simulation is used not only for the design of new supply systems, or modifications and extensions of existing systems, but also for the normal operation tasks carried out in any network. Two main types of simulation can be differentiated: hydraulic simulation, by means of which the pressures and flows registered in the network are computed, and water quality simulation, the objective of which is to obtain information about chemical substance concentrations.
The need for simulation comes often in the context of a wider problem of optimization or reliability analysis, which requires performing a large number of simulations, thus resulting in a process with considerable computational complexity. This fact, added to the growing size and level of detail of network models, as a consequence of the automatic incorporation of data coming from Geographical Information Systems, means that the performance of the simulation solver has a great impact in the overall computing time.
In this context, this thesis considers and explores different strategies to improve the performance of water distribution network simulation. The first strategy consists of making some contributions to the hydraulic simulation method known as Looped Newton-Raphson (or more simply the loop method), which is based on the consideration of flow corrections associated to a set of independent loops within the network. Even though the method known as Global Gradient Algorithm (GGA) is more widely used and accepted, the loop method has the potential to be faster, owing to the smaller size of the underlying linear systems. In this thesis some contributions are presented to improve the performance of the loop method for hydraulic simulation. Firstly, efficient algorithms are developed for the selection of a suitable set of independent loops, leading to a highly sparse linear system. Secondly, methods are developed for efficient modeling of hydraulic valves, and especially pressure reducing/sustaining valves.
The second strategy explored is the introduction of high performance computing in the hydraulic simulation using distributed memory platforms. In particular, the code of Epanet, a widely accepted water distribution network simulation software, is taken as the starting point for the introduction of parallel simulation algorithms, using the Message Passing Interface (MPI) tool for inter-process communications. As a result of this work, firstly a parallel algorithm is presented for the simulation of flows and pressures by means of the GGA method, making use of multifrontal algorithms for the parallel solution of the underlying linear systems. Secondly, a parallel algorithm for water quality simulation by means of the Discrete Volume Element Method (DVEM) is described, based on partitioning the network by means of multilevel recursive bisection algorithms. Thirdly, a parallel method is presented for leakage minimization by finding the optimal pressure settings for a set of pressure-reducing valves.
In distributed memory platforms the overhead due to communication and synchronization can be excessively high, counterbalancing the gain derived from the division of the computation among the processors. This effect is less pronounced in shared memory platforms such as multicore systems, which have gained popularity over the last years. This fact motivates the third strategy explored in this thesis, which is the development of parallel algorithms for simulation of flows and pressures using multicore systems. OpenMP is the tool used for the parallelization, both of the method GGA as implemented in Epanet software and of the loop method with the contributions on it that have been made in the context of this thesis. / [ES] La simulación por computador de las redes de distribución de agua potable, mediante el uso de modelos matemáticos, es hoy en día una herramienta indispensable para el diseño y la explotación de dichas redes. La simulación se utiliza tanto en el diseño de nuevos abastecimientos y en ampliaciones o modificaciones de abastecimientos existentes, como en las tareas de operación normales de cualquier red. Se puede diferenciar entre dos tipos de simulación: la simulación hidráulica, que permite obtener las presiones y caudales que se registran en la red, y la simulación de la calidad del agua, cuyo objetivo es obtener información sobre concentraciones de sustancias químicas.
A menudo la necesidad de simulación surge dentro de un problema más amplio de optimización o de análisis de fiabilidad, que requiere llevar a cabo un gran número de simulaciones, con lo que el proceso completo resulta de una complejidad computacional considerable. Esto, añadido al hecho de que el tamaño y nivel de detalle de los modelos de redes crece constantemente, como consecuencia de la incorporación automática de datos contenidos en Sistemas de Información Geográfica, hace que las prestaciones del solver de simulación tengan un gran impacto en el tiempo total de cálculo necesario.
En este contexto, esta tesis considera y explora distintas vías para mejorar las prestaciones de la simulación de redes de distribución de agua. La primera de estas vías consiste en realizar algunas aportaciones al método de simulación hidráulica conocido como método de Newton-Raphson de mallas, el cual se basa en la consideración de caudales correctores asociados a un conjunto de mallas independientes definidas sobre la red. Aunque el método conocido como Algoritmo del Gradiente Global (GGA) goza de mayor aceptación, el método de mallas tiene el potencial de ser más rápido, debido al menor tamaño de los sistemas lineales subyacentes. Esta tesis presenta aportaciones para mejorar las prestaciones del método de mallas de simulación hidráulica. En primer lugar, se desarrollan algoritmos eficientes para la selección de un conjunto de mallas adecuado, que conduzca a un sistema altamente disperso. En segundo lugar se desarrollan métodos para la modelización eficiente de válvulas, y especialmente válvulas reductoras/sostenedoras de presión.
La segunda vía explorada es la introducción de la computación de altas prestaciones en la simulación hidráulica usando plataformas de memoria distribuida. En particular, se parte del código de Epanet, un software de simulación de redes de amplia aceptación, y se introducen en él algoritmos paralelos de simulación, usando la herramienta Message Passing Interface (MPI) para la comunicación entre procesos. Como resultado de ello, se presenta en primer lugar un algoritmo paralelo para la simulación de caudales y presiones por medio del método GGA, haciendo uso de algoritmos multifrontales para la resolución paralela de los sistemas lineales subyacentes. En segundo lugar, se describe un algoritmo paralelo para la simulación de la calidad del agua mediante el Método de Elementos Discretos de Volumen (DVEM), particionando la red por medio de algoritmos de bisección recursiva multinivel. En tercer lugar, se presenta un método paralelo para la minimización de fugas mediante la determinación de las consignas óptimas de una serie de válvulas reductoras de presión.
Finalmente, la tercera vía explorada es el desarrollo de algoritmos paralelos sobre memoria compartida para la simulación de presiones y caudales. Se considera con ello un tipo de plataformas que han ganado popularidad en los últimos años. Se utiliza la herramienta OpenMP para la paralelización, tanto de Epanet y de su implementación del método GGA, como del método de mallas, con las aportaciones al mismo que se han realizado en el contexto de esta tesis. / [CA] La simulació per computador de les xarxes de distribució d'aigua potable, per mitjà de l'ús de models matemàtics, es hui en dia una ferramenta indispensable per al disseny i l'explotació d'abastiments d'aigua. La simulació s'utilitza tant per al disseny de nous abastiments o ampliacions i modificacions d'abastiments existents, com per a les tasques d'operació normals en qualsevol xarxa. Es pot diferenciar entre dos tipus de simulació: la simulació hidràulica, que permet obtindre les pressions i cabals que es produeixen en la xarxa, i la simulació de la qualitat de l'aigua, l'objectiu de la qual és obtindre informació sobre concentracions de substàncies químiques.
Sovint la necessitat de simulació sorgeix dins d'un problema més ampli d'optimització o d'anàlisi de fiabilitat, que requereix dur a terme un gran nombre de simulacions, amb la qual cosa el procés complet resulta d'una complexitat computacional considerable. Això, afegit al fet de que la grandària i nivell de detall del models de xarxes creix constantment, com a conseqüència de la incorporació automàtica de dades contingudes en Sistemes d'Informació Geogràfica, fa que les prestacions del solver de simulació tinguen un gran impacte en el temps total de càlcul necessari.
En este context, esta tesi considera i explora diferents vies per a millorar les prestacions de la simulació de xarxes de distribució d'aigua. La primera d'estes vies consisteix en realitzar algunes contribucions al mètode de simulació hidràulica conegut com mètode de Newton-Raphson de malles (o simplement mètode de malles), el qual es basa en la consideració de cabals correctors associats a un conjunt de malles independents definides en la xarxa. Encara que el mètode conegut com Algorisme del Gradient Global (GGA) gaudeix de major acceptació, el mètode de malles té el potencial de ser més ràpid, degut a la menor grandària dels sistemes lineals subjacents. En esta tesi es presenten contribucions per a millorar les prestacions del mètode de malles de simulació hidràulica. En concret, en primer lloc es desenvolupen algorismes eficients per a la selecció d'un conjunt de malles adequat, que conduïsca a un sistema lineal altament dispers. En segon lloc es desenvolupen mètodes per a la modelització eficient de vàlvules, i especialment vàlvules reductores/sostenidores de pressió.
La segona via explorada és la introducció de la computació d'altes prestacions en la simulació hidràulica utilitzant plataformes de memòria distribuïda. En concret, es parteix del codi d'Epanet, un programari de simulació de xarxes de distribució d'aigua d'amplia acceptació, i s'hi introdueixen algorismes paral·lels de simulació, utilitzant la ferramenta Message Passing Interface (MPI) per a la comunicació entre processos. Com a resultat d'este treball, es presenta en primer lloc un algorisme paral·lel per a la simulació de cabals i pressions per mitjà del mètode GGA, fent ús d'algorismes multifrontals per a la resolució en paral·lel dels sistemes lineals subjacents. En segon lloc, es descriu un algorisme paral·lel per a la simulació de la qualitat d'aigua amb el Mètode d'Elements Discrets de Volum (DVEM), particionant la xarxa per mitjà d'algoritmes de bisecció recursiva multinivell. En tercer lloc es presenta un mètode paral·lel per a la minimització de fugues mitjançant la determinació de les consignes òptimes d'una sèrie de vàlvules reductores de pressió.
Finalment, la tercera via explorada és el desenvolupament d'algorismes paral·lels sobre memòria compartida per a la simulació de pressions i cabals. Es considera amb això un tipus de plataformes que han guanyat popularitat en els últims anys. S'utilitza la ferramenta OpenMP per a la paral·lelització, tant del programari Epanet i de la seua implementació del mètode GGA, com del mètode de malles, amb les contribucions al mateix que s'han realitzat en el context d'esta tesi. / Alvarruiz Bermejo, F. (2016). Reducción del Tiempo de Simulación de Redes de Distribución de Agua, mediante el Método de Mallas y la Computación de Altas Prestaciones [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61764
|
355 |
Optimisation de code Galerkin discontinu sur ordinateur hybride : application à la simulation numérique en électromagnétisme / Discontinuous Galerkin code optimization on hybrid computer : application to the numerical simulation in electromagnetismWeber, Bruno 26 November 2018 (has links)
Nous présentons dans cette thèse les évolutions apportées au solveur Galerkin Discontinu Teta-CLAC, issu de la collaboration IRMA-AxesSim, au cours du projet HOROCH (2015-2018). Ce solveur permet de résoudre les équations de Maxwell en 3D, en parallèle sur un grand nombre d'accélérateurs OpenCL. L'objectif du projet HOROCH était d'effectuer des simulations de grande envergure sur un modèle numérique complet de corps humain. Ce modèle comporte 24 millions de mailles hexaédriques pour des calculs dans la bande de fréquences des objets connectés allant de 1 à 3 GHz (Bluetooth). Les applications sont nombreuses : téléphonie et accessoires, sport (maillots connectés), médecine (sondes : gélules, patchs), etc. Les évolutions ainsi apportées comprennent, entre autres : l'optimisation des kernels OpenCL à destination des CPU dans le but d'utiliser au mieux les architectures hybrides ; l'expérimentation du runtime StarPU ; le design d'un schéma d'intégration à pas de temps local ; et bon nombre d'optimisations permettant au solveur de traiter des simulations de plusieurs millions de mailles. / In this thesis, we present the evolutions made to the Discontinuous Galerkin solver Teta-CLAC – resulting from the IRMA-AxesSim collaboration – during the HOROCH project (2015-2018). This solver allows to solve the Maxwell equations in 3D and in parallel on a large amount of OpenCL accelerators. The goal of the HOROCH project was to perform large-scale simulations on a complete digital human body model. This model is composed of 24 million hexahedral cells in order to perform calculations in the frequency band of connected objects going from 1 to 3 GHz (Bluetooth). The applications are numerous: telephony and accessories, sport (connected shirts), medicine (probes: capsules, patches), etc. The changes thus made include, among others: optimization of OpenCL kernels for CPUs in order to make the best use of hybrid architectures; StarPU runtime experimentation; the design of an integration scheme using local time steps; and many optimizations allowing the solver to process simulations of several millions of cells.
|
356 |
Simulation de la dynamique des dislocations à très grande échelle / Hybrid parallelism on large scale dislocation dynamic simulationEtcheverry, Arnaud 23 November 2015 (has links)
Le travail réalisé durant cette thèse vise à offrir à un code de simulation en dynamique des dislocations les composantes essentielles pour permettre le passage à l’échelle sur les calculateurs modernes. Nous abordons plusieurs aspects de la simulation numérique avec tout d’abord des considérations algorithmiques. Pour permettre de réaliser des simulations efficaces en terme de complexité algorithmique pour des grandes simulations, nous explorons les contraintes des différentes étapes de la simulation en offrant une analyse et des améliorations aux algorithmes. Ensuite, une considération particulière est apportée aux structures de données. En prenant en compte les nouveaux algorithmes, nous proposons une structure de données pour bénéficier d’accès performants à travers la hiérarchie mémoire. Cette structure est modulaire pour faire face à deux types d’algorithmes, avec d’un côté la gestion du maillage nécessitant une gestion dynamique de la mémoire et de l’autre les phases de calcul intensifs avec des accès rapides. Pour cela cette structure modulaire est complétée par un octree pour gérer la décomposition de domaine et aussi les algorithmes hiérarchiques comme le calcul du champ de contrainte et la détection des collisions. Enfin nous présentons les aspects parallèles du code. Pour cela nous introduisons une approche hybride, avec un parallélisme à grain fin à base de threads, et un parallélisme à gros grain de type MPI nécessitant une décomposition de domaine et un équilibrage de charge.Finalement, ces contributions sont testées pour valider les apports pour la simulation numérique. Deux cas d’étude sont présentés pour observer et analyser le comportement des différentes briques de la simulation. Tout d’abord une simulation extrêmement dynamique, composée de sources de Frank-Read dans un cristal de zirconium est utilisée, avant de présenter quelques résultats sur une simulation cible contenant une forte densité de défauts d’irradiation. / This research work focuses on bringing performances in 3D dislocation dynamics simulation, to run efficiently on modern computers. First of all, we introduce some algorithmic technics, to reduce the complexity in order to target large scale simulations. Second of all, we focus on data structure to take into account both memory hierachie and algorithmic data access. On one side we build this adaptive data structure to handle dynamism of data and on the other side we use an Octree to combine hierachie decompostion and data locality in order to face intensive arithmetics with force field computation and collision detection. Finnaly, we introduce some parallel aspects of our simulation. We propose a classical hybrid parallelism, with task based openMP threads and domain decomposition technics for MPI.
|
357 |
Développement d’une méthode numérique pour les équations de Navier-Stokes en approximation anélastique : application aux instabilités de Rayleigh-Taylor / Developpement of a numerical method for Navier-Stokes equations in anelastic approximation : application to Rayleigh-Taylor instabilitiesHammouch, Zohra 30 May 2012 (has links)
L’approximation dite « anélastique » permet de filtrer les ondes acoustiques grâce à un développement asymptotique deséquations de Navier-Stokes, réduisant ainsi le pas en temps moyen, lors de la simulation numérique du développement d’instabilités hydrodynamiques. Ainsi, les équations anélastiques sont établies pour un mélange de deux fluides pour l’instabilité de Rayleigh-Taylor. La stabilité linéaire de l’écoulement est étudiée pour la première fois pour des fluides parfaits, par la méthode des modes normaux, dans le cadre de l’approximation anélastique. Le problème de Stokes issu des équations de Navier-Stokes sans les termes non linéaires (une partie de la poussée d’Archiméde est prise en compte) est défini ; l’éllipticité est démontrée, l’étude des modes propres et l’invariance liée à la pression sont détaillés. La méthode d’Uzawa est étendue à l’anélastique en mettant en évidence le découplage des vitesses en 3D, le cas particulier k = 0 et les modes parasites de pression. Le passage au multidomaine a permis d’établir les conditions de raccord (raccord Co de la pression sans condition aux limites physiques). Les algorithmes et l’implantation dans le code AMENOPHIS sont validés par les comparaisons de l’opérateur d’Uzawa développé en Fortran et à l’aide de Mathematica. De plus des résultats numériques ont été comparés à une expérience avec des fluides incompressibles. Finalement, une étude des solutions numériques obtenues avec les options anélastique et compressible a été menée. L’étude de l’influence de la stratification initiale des deux fluides sur le développement de l’instabilité de Rayleigh-Taylor est amorcée. / The « anelastic » approximation allows us to filter the acoustic waves thanks to an asymptotic development of the Navier-Stokes equations, so increasing the averaged time step, during the numerical simulation of hydrodynamic instabilitiesdevelopment. So, the anelastic equations for a two fluid mixture in case of Rayleigh-Taylor instability are established.The linear stability of Rayleigh-Taylor flow is studied, for the first time, for perfect fluids in the anelastic approximation.We define the Stokes problem resulting from Navier-Stokes equations without the non linear terms (a part of the buoyancyis considered) ; the ellipticity is demonstrated, the eigenmodes and the invariance related to the pressure are detailed.The Uzawa’s method is extended to the anelastic approximation and shows the decoupling speeds in 3D, the particular casek = 0 and the spurius modes of pressure. Passing to multidomain allowed to establish the transmission conditions.The algorithms and the implementation in the existing program are validated by comparing the Uzawa’s operator inFortran and Mathematica langages, to an experiment with incompressible fluids and results from anelastic and compressiblenumerical simulations. The study of the influence of the initial stratification of both fluids on the development of the Rayleigh-Taylor instability is initiated.
|
358 |
Improving message logging protocols towards extreme-scale HPC systems / Amélioration des protocoles de journalisation des messages vers des systèmes HPC extrême-échelleMartsinkevich, Tatiana V. 22 September 2015 (has links)
Les machines pétascale qui existent aujourd'hui ont un temps moyen entre pannes de plusieurs heures. Il est prévu que dans les futurs systèmes ce temps diminuera. Pour cette raison, les applications qui fonctionneront sur ces systèmes doivent être capables de tolérer des défaillances fréquentes. Aujourd'hui, le moyen le plus commun de le faire est d'utiliser le mécanisme de retour arrière global où l'application fait des sauvegardes périodiques à partir d’un point de reprise. Si un processus s'arrête à cause d'une défaillance, tous les processus reviennent en arrière et se relancent à partir du dernier point de reprise. Cependant, cette solution deviendra infaisable à grande échelle en raison des coûts de l'énergie et de l'utilisation inefficace des ressources. Dans le contexte des applications MPI, les protocoles de journalisation des messages offrent un meilleur confinement des défaillances car ils ne demandent que le redémarrage du processus qui a échoué, ou parfois d’un groupe de processus limité. Par contre, les protocoles existants ont souvent un surcoût important en l’absence de défaillances qui empêchent leur utilisation à grande échelle. Ce surcoût provient de la nécessité de sauvegarder de façon fiable tous les événements non-déterministes afin de pouvoir correctement restaurer l'état du processus en cas de défaillance. Ensuite, comme les journaux de messages sont généralement stockés dans la mémoire volatile, la journalisation risque de nécessiter une large utilisation de la mémoire. Une autre tendance importante dans le domaine des HPC est le passage des applications MPI simples aux nouveaux modèles de programmation hybrides tels que MPI + threads ou MPI + tâches en réponse au nombre croissant de cœurs par noeud. Cela offre l’opportunité de gérer les défaillances au niveau du thread / de la tâche contrairement à l'approche conventionnelle qui traite les défaillances au niveau du processus. Par conséquent, le travail de cette thèse se compose de trois parties. Tout d'abord, nous présentons un protocole de journalisation hiérarchique pour atténuer une défaillance de processus. Le protocole s'appelle Scalable Pattern-Based Checkpointing et il exploite un nouveau modèle déterministe appelé channel-determinism ainsi qu’une nouvelle relation always-happens-before utilisée pour mettre partiellement en ordre les événements de l'application. Le protocole est évolutif, son surcoût pendant l'exécution sans défaillance est limité, il n'exige l'enregistrement d'aucun évènement et, enfin, il a une reprise entièrement distribuée. Deuxièmement, afin de résoudre le problème de la limitation de la mémoire sur les nœuds de calcul, nous proposons d'utiliser des ressources dédiées supplémentaires, appelées logger nodes. Tous les messages qui ne rentrent pas dans la mémoire du nœud de calcul sont envoyés aux logger nodes et sauvegardés dans leur mémoire. À travers de nos expériences nous montrons que cette approche est réalisable et, associée avec un protocole de journalisation hiérarchique comme le SPBC, les logger nodes peuvent être une solution ultime au problème de mémoire limitée sur les nœuds de calcul. Troisièmement, nous présentons un protocole de tolérance aux défaillances pour des applications hybrides qui adoptent le modèle de programmation MPI + tâches. Ce protocole s'utilise pour tolérer des erreurs détectées non corrigées qui se produisent lors de l'exécution d'une tâche. Normalement, une telle erreur provoque une exception du système ce qui provoque un arrêt brutal de l'application. Dans ce cas, l'application doit redémarrer à partir du dernier point de reprise. Nous combinons la sauvegarde des données de la tâche avec une journalisation des messages afin d’aider à la reprise de la tâche qui a subi une défaillance. Ainsi, nous évitons le redémarrage au niveau du processus, plus coûteux. Nous démontrons les avantages de ce protocole avec l'exemple des applications hybrides MPI + OmpSs. / Existing petascale machines have a Mean Time Between Failures (MTBF) in the order of several hours. It is predicted that in the future systems the MTBF will decrease. Therefore, applications that will run on these systems need to be able to tolerate frequent failures. Currently, the most common way to do this is to use global application checkpoint/restart scheme: if some process fails the whole application rolls back the its last checkpointed state and re-executes from that point. This solution will become infeasible at large scale, due to its energy costs and inefficient resource usage. Therefore fine-grained failure containment is a strongly required feature for the fault tolerance techniques that target large-scale executions. In the context of message passing MPI applications, message logging fault tolerance protocols provide good failure containment as they require restart of only one process or, in some cases, a bounded number of processes. However, existing logging protocols experience a number of issues which prevent their usage at large scale. In particular, they tend to have high failure-free overhead because they usually need to store reliably any nondeterministic events happening during the execution of a process in order to correctly restore its state in recovery. Next, as message logs are usually stored in the volatile memory, logging may incur large memory footprint, especially in communication-intensive applications. This is particularly important because the future exascale systems expect to have less memory available per core. Another important trend in HPC is switching from MPI-only applications to hybrid programming models like MPI+threads and MPI+tasks in response to the increasing number of cores per node. This gives opportunities for employing fault tolerance solutions that handle faults on the level of threads/tasks. Such approach has even better failure containment compared to message logging protocols which handle failures on the level of processes. Thus, the work in these dissertation consists of three parts. First, we present a hierarchical log-based fault tolerance solution, called Scalable Pattern-Based Checkpointing (SPBC) for mitigating process fail-stop failures. The protocol leverages a new deterministic model called channel-determinism and a new always-happens-before relation for partial ordering of events in the application. The protocol is scalable, has low overhead in failure-free execution and does not require logging any events, provides perfect failure containment and has a fully distributed recovery. Second, to address the memory limitation problem on compute nodes, we propose to use additional dedicated resources, or logger nodes. All the logs that do not fit in the memory of compute nodes are sent to the logger nodes and kept in their memory. In a series of experiments we show that not only this approach is feasible, but, combined with a hierarchical logging scheme like the SPBC, logger nodes can be an ultimate solution to the problem of memory limitation for logging protocols. Third, we present a log-based fault tolerance protocol for hybrid applications adopting MPI+tasks programming model. The protocol is used to tolerate detected uncorrected errors (DUEs) that happen during execution of a task. Normally, a DUE caused the system to raise an exception which lead to an application crash. Then, the application has to restart from a checkpoint. In the proposed solution, we combine task checkpointing with message logging in order to support task re-execution. Such task-level failure containment can be beneficial in large-scale executions because it avoids the more expensive process-level restart. We demonstrate the advantages of this protocol on the example of hybrid MPI+OmpSs applications.
|
359 |
Spatio-temporal refinement using a discontinuous Galerkin approach for elastodynamic in a high performance computing framework / Raffinement spatio-temporel par une approche de Galerkin discontinue en élastodynamique pour le calcul haute performanceDudouit, Yohann 08 December 2014 (has links)
Cette thèse étudie le raffinement local de maillage à la fois en espace et en temps pour l’équation de l’elastodynamique du second ordre pour le calcul haute performance. L’objectif est de mettre en place des méthodes numériques pour traiter des hétérogénéités de petite taille ayant un impact important sur la propagation des ondes. Nous utilisons une approche par éléments finis de Galerkin discontinus avec pénalisation pour leur flexibilité et facilité de parallélisation. La formulation éléments finis que nous proposons a pour particularité d’être élasto-acoustique, pour pouvoir prendre en compte des hétérogénéités acoustiques de petite taille. Par ailleurs, nous proposons un terme de pénalisation optimisé qui est mieux adapté à l’équation de l’élastodynamique, conduisant en particulier à une meilleure condition CFL. Nous avons aussi amélioré une formulation PML du second ordre pour laquelle nous avons proposé une nouvelle discrétisation temporelle qui rend la formulation plus stable. En tirant parti de la p-adaptivité et des maillages non-conformes des méthodes de Galerkin discontinues combiné à une méthode de pas de temps local, nous avons grandement réduit le coût du raffinement local. Ces méthodes ont été implémentées en C++, en utilisant des techniques de template metaprogramming, au sein d’un code parallèle à mémoire distribuée (MPI) et partagée (OpenMP). Enfin, nous montrons le potentiel de notre approche sur des cas tests de validation et sur des cas plus réalistes avec des milieux présentant des hydrofractures. / This thesis studies local mesh refinement both in time and space for the second order elastodynamic equation in a high performance computing context. The objective is to develop numerical methods to treat small heterogeneities that have global impact on wave propagation. We use an internal penalty discontinuous Galerkin finite element approach for its flexibity and parallelization capabilities. The elasto-acoustic finite element formulation we discuss is elasto-acoustic in order to handle local acoustic heterogeneities. We also propose an optimized penalty term more suited to the elastodynamic equation that results in better CFL condition. We improve a second order PML formulation with an original time discretization that results in a more stable formulation. Using the p-adaptivity and nonconforming mesh capabilities of discontinuous Galerkin methods combined with a local time stepping method, we greatly reduce the high computational cost of local refinements. These methods have been implemented in C++, using template metaprogramming, in a distributed memory (MPI) and shared memory (OpenMP) parallel code. Finally, we show the potential of our methods on validation test cases and on more realistic test cases with medium including hydrofractures.
|
360 |
Study of Υ production as a function of multiplicity in pp collisions at √s = 13 TeV with ALICE at LHC / Étude du taux de production des Upsilons en fonction de la multiplicité des particules chargées dans les collisions proton-proton à √s = 13 TeV avec ALICE au LHCChowdhury, Tasnuva 05 July 2019 (has links)
L’étude des mécanismes de production des quarkonia (J/ψ or Υ) dans les collisions proton-proton (pp) est intéressante car elle nécessite de prendre en compte les aspects perturbatifs et non perturbatifs de la ChromoDynamique Quantique (QCD). La production de quarkonia en fonction de la multiplicité des particules chargées a été mesurée pour la première fois dans les collisions pp avec le détecteur ALICE au Grand collisionneur de hadrons (LHC). Ces mesures présentent une corrélation non triviale qui peut conduire à une meilleure compréhension du mécanisme d’interaction partonique multiple dans l’état initial de la collision ainsi que des effets collectifs possibles dans les petits systèmes. L’étude du dernier échantillon de données enregistré au LHC en collisions pp aux énergies les plus élevées jamais atteintes en laboratoire (√s=13 TeV) permettra d’étudier des événements à forte multiplicité. Avec ALICE, les quarkonia sont mesurés jusqu’à des impulsions transverses nulles. Les charmonia (J/ψ, cc̄ ) sont détectés par leur désintégration en diélectrons à mi-rapidité (|y|< 0.9) et en dimuons en rapidité vers l’avant (2.5 < y < 4). Les bottomonia (Υ, bb̄) sont détectées par leur décroissance en dimuons en rapidité vers l’avant. La multiplicité des particules chargées est mesurée à l’aide de segments de traces avec le détecteur de silicium à pixels pour |η|< 1. Dans cette thèse, nous présenterons les premières mesures réalisées avec ALICE des productions relatives d’Υ(1S) et Υ(2S) en fonction de la multiplicité des collisions pp à √s =13 TeV. Nous discuterons du rapport relatif des Υ(2S) par rapport aux Υ(1S) en fonction de la multiplicité des particules chargées. La comparaison entre les J/ψ et les Υ(1S) mesurés en rapidité avant en fonction de la multiplicité sera également examinée. Ces études permettront d’examiner la dépendance possible de la corrélation mesurée avec les différentes masses des quarkonia considérés et les différents types de contenus en quark. La dépendance du domaine en rapidité et de l’énergie de la collision sera également considérée. / The study of quarkonium (J/ψ or Υ) in proton-proton (pp) collisions is interesting as both perturbative and non perturbative aspects of Quantum ChromoDynamics (QCD) are involved in the production mechanism. The quarkonium production as a function of charged-particle multiplicity has been measured in a pp collisions with ALICE detector at the Large Hadron Collider (LHC). They exhibit a non-trivial correlation that can lead to a better understanding of the multi-parton interaction mechanism in the initial state of the collision as well as possible collective effects in small systems. Thestudy of latest data sample recorded at the LHC in pp collisions at the highest collision energies everreached in the laboratory (√s = 13 TeV) will allow to investigate high multiplicity events. In ALICE,quarkonia are measured down to zero transverse momentum. Charmonia (J/ψ, cc̄) are detected viatheir decay into di-electrons at mid-rapidity (|y|< 0.9) and dimuons at forward rapidity (2.5 < y < 4).Bottomonia (Υ, bb̄) are detected via their decay into dimuons at forward rapidity. Charged-particlemultiplicity is measured using track segments in the silicon pixel detector in |η|< 1. In this thesis, we will present the first ALICE measurements of relative Υ(1S) and Υ(2S) productions as a function of multiplicity in pp collisions at √s =13 TeV. We will discuss the ratio of the relative Υ(2S) overΥ(1S) as a function of charged-particle multiplicity. The comparison between the relative J/ψ andΥ(1S) yields measured at forward rapidity as a function of multiplicity will also be discussed. This will provide insight of possible dependence of the measured correlation with different mass and quark contents as well as the evolution with rapidity range and the collision energy.
|
Page generated in 0.1256 seconds