• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 74
  • 14
  • Tagged with
  • 186
  • 186
  • 131
  • 101
  • 87
  • 35
  • 33
  • 33
  • 29
  • 29
  • 29
  • 24
  • 24
  • 24
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Towards brain-scale modelling of the human cerebral blood flow : hybrid approach and high performance computing / Vers une modélisation de l’écoulement sanguin cérébral humain à l’échelle du cerveau : approche hybride et calcul haute performance

Peyrounette, Myriam 25 October 2017 (has links)
La microcirculation cérébrale joue un rôle clé dans la physiologie cérébrale. Lors de maladies dégénératives comme celle d’Alzheimer, la détérioration des réseaux microvasculaires (e.g. occlusions et baisse de densité vasculaires) limite l’afflux sanguin vers le cortex. La réduction associée de l’apport en oxygène et nutriments risque de provoquer la mort de neurones. En complément des techniques d’imagerie médicale, la modélisation est un outil précieux pour comprendre l’impact de telles variations structurelles sur l’écoulement sanguin et les transferts de masse. Dans la microcirculation cérébrale, le lit capillaire contient les plus petits vaisseaux (diamètre de 1-10 μm) et présente une structure maillée, au sein du tissu cérébral. C’est le lieu principal des échanges moléculaires entre le sang et les neurones. Le lit capillaire est alimenté et drainé par les arbres artériolaires et veinulaires (diamètre de 10-100 μm). Depuis quelques décennies, les approches “réseau” ont significativement amélioré notre compréhension de l’écoulement sanguin, du transport de masse et des mécanismes de régulation dans la microcirculation cérébrale humaine. Cependant, d’un point de vue numérique, la densité des capillaires limite ces approches à des volumes relativement petits (<100 mm3). Cette contrainte empêche leur application à des échelles cliniques, puisque les techniques d’imagerie médicale permettent d’acquérir des volumes bien plus importants (∼100 cm3), avec une résolution de 1-10 mm. Pour réduire ce coût numérique, nous présentons une approche hybride pour la modélisation de l’écoulement dans laquelle les capillaires sont remplacés par un milieu continu. Cette substitution a du sens puisque le lit capillaire est dense et homogène à partir d’une longueur de coupure de ∼50 μm. Dans ce continuum, l’écoulement est caractérisé par des propriétés effectives (e.g. perméabilité) à l’échelle d’un volume représentatif plus grand. De plus, le continuum est discrétisé par la méthode des volumes finis sur un maillage grossier, ce qui induit un gain numérique important. Les arbres artério- et veinulaires ne peuvent être homogénéisés à cause de leur structure quasi-fractale. Nous appliquons donc une approche “réseau” standard dans les vaisseaux les plus larges. La principale difficulté de l’approche hybride est de développer un modèle de couplage aux points où les vaisseaux artério- et veinulaires sont connectés au continuum. En effet, de forts gradients de pression apparaissent à proximité de ces points, et doivent être homogénéisés proprement à l’échelle du continuum. Ce genre de couplage multi-échelle n’a jamais été introduit dans le contexte de la microcirculation cérébrale. Nous nous inspirons ici du "modèle de puits" développé par Peaceman pour l’ingénierie pétrolière, en utilisant des solutions analytiques du champ des pressions dans le voisinage des points de couplage. Les équations obtenues forment un unique système linéaire à résoudre pour l’ensemble du domaine d’étude. Nous validons l’approche hybride par comparaison avec une approche “réseau” classique, pour des architectures synthétiques simples qui n’impliquent qu’un ou deux couplages, et pour des structures plus complexes qui impliquent des arbres artério- et veinulaires anatomiques avec un grand nombre de couplages. Nous montrons que cette approche est fiable, puisque les erreurs relatives en pression sont faibles (<6 %). Cela ouvre la voie à une complexification du modèle (e.g. hématocrite non uniforme). Dans une perspective de simulations à grande échelle et d’extension au transport de masse, l’approche hybride a été implémentée dans un code C++ conçu pour le calcul haute performance. Ce code a été entièrement parallélisé en utilisant les standards MPI et des librairies spécialisées (e.g. PETSc). Ce travail faisant partie d’un projet plus large impliquant plusieurs collaborateurs, une attention particulière a été portée à l’établissement de stratégies d’implémentation efficaces. / The brain microcirculation plays a key role in cerebral physiology and neuronal activation. In the case of degenerative diseases such as Alzheimer’s, severe deterioration of the microvascular networks (e.g. vascular occlusions) limit blood flow, thus oxygen and nutrients supply, to the cortex, eventually resulting in neurons death. In addition to functional neuroimaging, modelling is a valuable tool to investigate the impact of structural variations of the microvasculature on blood flow and mass transfers. In the brain microcirculation, the capillary bed contains the smallest vessels (1-10 μm in diameter) and presents a mesh-like structure embedded in the cerebral tissue. This is the main place of molecular exchange between blood and neurons. The capillary bed is fed and drained by larger arteriolar and venular tree-like vessels (10-100 μm in diameter). For the last decades, standard network approaches have significantly advanced our understanding of blood flow, mass transport and regulation mechanisms in the human brain microcirculation. By averaging flow equations over the vascular cross-sections, such approaches yield a one-dimensional model that involves much fewer variables compared to a full three-dimensional resolution of the flow. However, because of the high density of capillaries, such approaches are still computationally limited to relatively small volumes (<100 mm3). This constraint prevents applications at clinically relevant scales, since standard imaging techniques only yield much larger volumes (∼100 cm3), with a resolution of 1-10 mm3. To get around this computational cost, we present a hybrid approach for blood flow modelling where the capillaries are replaced by a continuous medium. This substitution makes sense since the capillary bed is dense and space-filling over a cut-off length of ∼50 μm. In this continuum, blood flow is characterized by effective properties (e.g. permeability) at the scale of a much larger representative volume. Furthermore, the domain is discretized on a coarse grid using the finite volume method, inducing an important computational gain. The arteriolar and venular trees cannot be homogenized because of their quasi-fractal structure, thus the network approach is used to model blood flow in the larger vessels. The main difficulty of the hybrid approach is to develop a proper coupling model at the points where arteriolar or venular vessels are connected to the continuum. Indeed, high pressure gradients build up at capillary-scale in the vicinity of the coupling points, and must be properly described at the continuum-scale. Such multiscale coupling has never been discussed in the context of brain microcirculation. Taking inspiration from the Peaceman “well model” developed for petroleum engineering, our coupling model relies on to use analytical solutions of the pressure field in the neighbourhood of the coupling points. The resulting equations yield a single linear system to solve for both the network part and the continuum (strong coupling). The accuracy of the hybrid model is evaluated by comparison with a classical network approach, for both very simple synthetic architectures involving no more than two couplings, and more complex ones, with anatomical arteriolar and venular trees displaying a large number of couplings. We show that the present approach is very accurate, since relative pressure errors are lower than 6 %. This lays the goundwork for introducing additional levels of complexity in the future (e.g. non uniform hematocrit). In the perspective of large-scale simulations and extension to mass transport, the hybrid approach has been implemented in a C++ code designed for High Performance Computing. It has been fully parallelized using Message Passing Interface standards and specialized libraries (e.g. PETSc). Since the present work is part of a larger project involving several collaborators, special care has been taken in developing efficient coding strategies.
92

A study on block flexible iterative solvers with applications to Earth imaging problem in geophysics / Étude de méthodes itératives par bloc avec application à l’imagerie sismique en géophysique

Ferreira Lago, Rafael 13 June 2013 (has links)
Les travaux de ce doctorat concernent le développement de méthodes itératives pour la résolution de systèmes linéaires creux de grande taille comportant de nombreux seconds membres. L’application visée est la résolution d’un problème inverse en géophysique visant à reconstruire la vitesse de propagation des ondes dans le sous-sol terrestre. Lorsque de nombreuses sources émettrices sont utilisées, ce problème inverse nécessite la résolution de systèmes linéaires complexes non symétriques non hermitiens comportant des milliers de seconds membres. Dans le cas tridimensionnel ces systèmes linéaires sont reconnus comme difficiles à résoudre plus particulièrement lorsque des fréquences élevées sont considérées. Le principal objectif de cette thèse est donc d’étendre les développements existants concernant les méthodes de Krylov par bloc. Nous étudions plus particulièrement les techniques de déflation dans le cas multiples seconds membres et recyclage de sous-espace dans le cas simple second membre. Des gains substantiels sont obtenus en terme de temps de calcul par rapport aux méthodes existantes sur des applications réalistes dans un environnement parallèle distribué. / This PhD thesis concerns the development of flexible Krylov subspace iterative solvers for the solution of large sparse linear systems of equations with multiple right-hand sides. Our target application is the solution of the acoustic full waveform inversion problem in geophysics associated with the phenomena of wave propagation through an heterogeneous model simulating the subsurface of Earth. When multiple wave sources are being used, this problem gives raise to large sparse complex non-Hermitian and nonsymmetric linear systems with thousands of right-hand sides. Specially in the three-dimensional case and at high frequencies, this problem is known to be difficult. The purpose of this thesis is to develop a flexible block Krylov iterative method which extends and improves techniques already available in the current literature to the multiple right-hand sides scenario. We exploit the relations between each right-hand side to accelerate the convergence of the overall iterative method. We study both block deflation and single right-hand side subspace recycling techniques obtaining substantial gains in terms of computational time when compared to other strategies published in the literature, on realistic applications performed in a parallel environment.
93

Efficient large electromagnetic simulation based on hybrid TLM and modal approach on grid computing and supercomputer / Parallélisation, déploiement et adaptation automatique de la simulation électromagnétique sur une grille de calcul

Alexandru, Mihai 14 December 2012 (has links)
Dans le contexte des Sciences de l’Information et de la Technologie, un des challenges est de créer des systèmes de plus en plus petits embarquant de plus en plus d’intelligence au niveau matériel et logiciel avec des architectures communicantes de plus en plus complexes. Ceci nécessite des méthodologies robustes de conception afin de réduire le cycle de développement et la phase de prototypage. Ainsi, la conception et l’optimisation de la couche physique de communication est primordiale. La complexité de ces systèmes rend difficile leur optimisation notamment à cause de l’explosion du nombre des paramètres inconnus. Les méthodes et outils développés ces dernières années seront à terme inadéquats pour traiter les problèmes qui nous attendent. Par exemple, la propagation des ondes dans une cabine d’avion à partir des capteurs ou même d’une antenne, vers le poste de pilotage est grandement affectée par la présence de la structure métallique des sièges à l’intérieur de la cabine, voir les passagers. Il faut, donc, absolument prendre en compte cette perturbation pour prédire correctement le bilan de puissance entre l’antenne et un possible récepteur. Ces travaux de recherche portent sur les aspects théoriques et de mise en oeuvre pratique afin de proposer des outils informatiques pour le calcul rigoureux de la réflexion des champs électromagnétiques à l’intérieur de très grandes structures . Ce calcul implique la solution numérique de très grands systèmes inaccessibles par des ressources traditionnelles. La solution sera basée sur une grille de calcul et un supercalculateur. La modélisation électromagnétique des structures surdimensionnées par plusieurs méthodes numériques utilisant des nouvelles ressources informatiques, hardware et software, pour dérouler des calculs performants, représente le but de ce travail. La modélisation numérique est basée sur une approche hybride qui combine la méthode Transmission-Line Matrix (TLM) et l’approche modale. La TLM est appliquée aux volumes homogènes, tandis que l’approche modale est utilisée pour décrire les structures planaires complexes. Afin d’accélérer la simulation, une implémentation parallèle de l’algorithme TLM dans le contexte du paradigme de calcul distribué est proposé. Le sous-domaine de la structure qui est discrétisé avec la TLM est divisé en plusieurs parties appelées tâches, chacune étant calculée en parallèle par des processeurs différents. Pour accomplir le travail, les tâches communiquent entre elles au cours de la simulation par une librairie d’échange de messages. Une extension de l’approche modale avec plusieurs modes différents a été développée par l’augmentation de la complexité des structures planaires. Les résultats démontrent les avantages de la grille de calcul combinée avec l’approche hybride pour résoudre des grandes structures électriques, en faisant correspondre la taille du problème avec le nombre de ressources de calcul utilisées. L’étude met en évidence le rôle du schéma de parallélisation, cluster versus grille, par rapport à la taille du problème et à sa répartition. En outre, un modèle de prédiction a été développé pour déterminer les performances du calcul sur la grille, basé sur une approche hybride qui combine une prédiction issue d’un historique d’expériences avec une prédiction dérivée du profil de l’application. Les valeurs prédites sont en bon accord avec les valeurs mesurées. L’analyse des performances de simulation a permis d’extraire des règles pratiques pour l’estimation des ressources nécessaires pour un problème donné. En utilisant tous ces outils, la propagation du champ électromagnétique à l’intérieur d’une structure surdimensionnée complexe, telle qu’une cabine d’avion, a été effectuée sur la grille et également sur le supercalculateur. Les avantages et les inconvénients des deux environnements sont discutés. / In the context of Information Communications Technology (ICT), the major challenge is to create systems increasingly small, boarding more and more intelligence, hardware and software, including complex communicating architectures. This requires robust design methodologies to reduce the development cycle and prototyping phase. Thus, the design and optimization of physical layer communication is paramount. The complexity of these systems makes them difficult to optimize, because of the explosion in the number of unknown parameters. The methods and tools developed in past years will be eventually inadequate to address problems that lie ahead. Communicating objects will be very often integrated into cluttered environments with all kinds of metal structures and dielectric larger or smaller sizes compared to the wavelength. The designer must anticipate the presence of such barriers in the propagation channel to establish properly link budgets and an optimal design of the communicating object. For example, the wave propagation in an airplane cabin from sensors or even an antenna, towards the cockpit is greatly affected by the presence of the metal structure of the seats inside the cabin or even the passengers. So, we must absolutely take into account this perturbation to predict correctly the power balance between the antenna and a possible receiver. More generally, this topic will address the theoretical and computational electromagnetics in order to propose an implementation of informatics tools for the rigorous calculation of electromagnetic scattering inside very large structures or radiation antenna placed near oversized objects. This calculation involves the numerical solution of very large systems inaccessible by traditional resources. The solution will be based on grid computing and supercomputers. Electromagnetic modeling of oversized structures by means of different numerical methods, using new resources (hardware and software) to realize yet more performant calculations, is the aim of this work. The numerical modeling is based on a hybrid approach which combines Transmission-Line Matrix (TLM) and the mode matching methods. The former is applied to homogeneous volumes while the latter is used to describe complex planar structures. In order to accelerate the simulation, a parallel implementation of the TLM algorithm in the context of distributed computing paradigm is proposed. The subdomain of the structure which is discretized upon TLM is divided into several parts called tasks, each one being computed in parallel by different processors. To achieve this, the tasks communicate between them during the simulation by a message passing library. An extension of the modal approach to various modes has been developped by increasing the complexity of the planar structures. The results prove the benefits of the combined grid computing and hybrid approach to solve electrically large structures, by matching the size of the problem with the number of computing resources used. The study highlights the role of parallelization scheme, cluster versus grid, with respect to the size of the problem and its repartition. Moreover, a prediction model for the computing performances on grid, based on a hybrid approach that combines a historic-based prediction and an application profile-based prediction, has been developped. The predicted values are in good agreement with the measured values. The analysis of the simulation performances has allowed to extract practical rules for the estimation of the required resources for a given problem. Using all these tools, the propagation of the electromagnetic field inside a complex oversized structure such an airplane cabin, has been performed on grid and also on a supercomputer. The advantages and disadvantages of the two environments are discussed.
94

Environnement d'exécution pour des services de calcul à la demande sur des grappes mutualisées / Execution Environment for On-demand Computing Services Based on Shared Clusters

Chakode Noumowe, Rodrigue 26 June 2012 (has links)
Cette thèse étudie la gestion de ressources pour des services de calcul intensif à la demande sur une grappe de calcul partagée. Dans un tel contexte, il s'agissait de définir des outils d'exploitation qui permettent d'allouer dynamiquement les ressources pour l'exécution des requêtes à la demande, de partager équitablement les ressources entre les différents services, tout en maximisant leur utilisation. Financé par le pôle de compétitivité Minalogic dans le cadre du projet Ciloe (http://ciloe.minalogic.net), ce travail s'adresse à des organisations de types PME ou PMI, où les budgets de fonctionnement ne permettent pas de supporter les charges d'une infrastructure de calcul dédiée. Dans un premier temps, nous avons dressé un état de l'art sur la gestion de ressources dans les domaines de nuage de calcul et de calcul intensif. Puis, tirant partie de cette étude, nous avons défini une architecture virtualisée pour faciliter l'exécution dynamique des requêtes grâce à un gestionnaire de ressources spécifique. Nous avons enfin proposé une stratégie de partage et d'allocation de ressources flexible qui offre un compromis entre équité et utilisation efficace de ressources. Ayant travaillé dans un contexte de collaboration avec des industriels, nous avons développé un prototype comme une preuve de concept. Basé sur des standards ouverts, ce prototype s'appuie sur des outils existants de virtualisation tel que OpenNebula pour allouer et manipuler les machines virtuelles sur les noeuds de la grappe. A partir de ce prototype et diverses charges de travail qui sont détaillés dans cette thèse, nous avons mené des expériences pour évaluer l'architecture et les algorithmes de gestion de ressources. Les résultats montrent que ces différentes contributions satisfont les objectifs fixés tout en étant performantes et efficaces. / This thesis studies resource management for on-demand computing services through a shared cluster. In such a context, the aim was to propose tools to enable allocating resources automatically for executing on-demand user requests, to enable sharing resources proportionally among those services, while maximizing their use. Funded by the Minalogic global business cluster through the Ciloe Project (http://ciloe.minalogic.net), this work targets on organizations such as SMB, which are not able to support the charge of purchasing and maintaining a dedicated computing infrastructure. Firstly, we have achieved a deep survey in the areas of on-demand computing and high performance computing. From this survey, we have defined a virtualized architecture to enable dynamic execution of user requests thanks to a special resource manager. Finally, we have proposed policies and algorithms which are so flexible to offer a suitable tradeoff between equity and resource use. Having worked in a context of industrial collaboration, we have developed a prototype of our proposal as a proof of concept. Based on open standards, this prototype relies on existing virtualization tools such as OpenNebula for allocating and manipulating virtual machines over the cluster's nodes. From this prototype along with various workloads, we have carried out experiments to evaluate our architecture and scheduling algorithms. Results have shown that our contributions allow to achieve the expected goals while being reliable and efficient.
95

Développement d'approches protéomiques pour l'étude des interactions tique / Borrelia / peau / Development of proteomic approaches for the study of tick / Borrelia / skin interactions

Boeuf, Amandine 13 May 2013 (has links)
La maladie de Lyme, ou borréliose de Lyme, est une infection bactérienne causée par le spirochète Borrelia burgdorferi sensu lato et transmise à l’hôte (homme, animal) par piqûre de tique du genre Ixodes. Cette maladie, caractérisée par un polymorphisme clinique important, est la maladie à transmission vectorielle la plus répandue dans l’hémisphère nord. Un traitement par antibiotiques permet une guérison rapide, mais si la maladie est diagnostiquée tardivement, certains symptômes persistent. Actuellement, aucun vaccin n’est commercialisé pour l’homme. Dans ce contexte, nous avons développé des approches protéomiques afin d’apporter de nouveaux éléments de compréhension du mécanisme d’interactions de la triade tique / bactérie / hôte. Ces travaux, visant particulièrement le développement de nouvelles stratégies vaccinales et diagnostiques, sont articulés autour de trois parties : - L’identification, suite à de nombreuses optimisations, d’une méthode d’analyse HPLC-UV et nanoLC-MS/MS, de protéines présentes dans des extraits de glandes salivaires de tiques et possédant une activité sur la réponse immunitaire innée cutanée. Ces développements ont mis en évidence une liste restreinte de protéines potentiellement bioactives. - La mise au point, sur un modèle murin, d’une méthode de détection d’une protéine de Borrelia burgdorferi, OspC, dans des biopsies cutanées par spectrométrie de masse ciblée LC-SRM. Cette étude a ouvert des perspectives quant au développement de nouveaux outils diagnostiques. - L’évaluation de la faisabilité de la détection de Borrelia burgdorferi directement à la surface de la peau par imagerie par spectrométrie de masse MALDI-MSI. / Lyme disease, or Lyme borreliosis, is a bacterial infection caused by Borrelia burgdorferi sensu lato and transmitted to the human or animal host by an Ixodes tick bite. This disease, characterized by a huge clinical polymorphism, is the most common vector-born disease in the Northern Hemisphere. An antibiotic treatment allows a fast recovery, but if it is diagnosed too late, some symptoms persist. Currently, no vaccine is marketed for humans. In this context, we have developed proteomic approaches to bring new understanding to the interaction mechanism of the triad tick / bacteria / host. This work, aimed particularly at the development of new vaccinal and diagnostic strategies, has three parts: - Identification, after numerous optimizations, of the analytical method HPLC-UV and nanoLC-MS/MS, of proteins that are present in tick salivary gland extracts and having activity on cutaneous innate immunity response. This work has highlighted a list of proteins with a potential biological activity. - Development, with a murine model, of a method for detecting Borrelia burgdorferi protein, OspC, in cutaneous biopsies by targeted mass spectrometry LC-SRM. This study has opened up perspectives concerning new diagnostic tools. - Evaluation of the feasibility of the Borrelia burgdorferi detection directly on the skin surface by MALDI imaging mass spectrometry.
96

Passage à l'echelle d'un support d'exécution à base de tâches pour l'algèbre linéaire dense / Scalability of a task-based runtime system for dense linear algebra applications

Sergent, Marc 08 December 2016 (has links)
La complexification des architectures matérielles pousse vers l’utilisation de paradigmes de programmation de haut niveau pour concevoir des applications scientifiques efficaces, portables et qui passent à l’échelle. Parmi ces paradigmes, la programmation par tâches permet d’abstraire la complexité des machines en représentant les applications comme des graphes de tâches orientés acycliques (DAG). En particulier, le modèle de programmation par tâches soumises séquentiellement (STF) permet de découpler la phase de soumission des tâches, séquentielle, de la phase d’exécution parallèle des tâches. Même si ce modèle permet des optimisations supplémentaires sur le graphe de tâches au moment de la soumission, il y a une préoccupation majeure sur la limite que la soumission séquentielle des tâches peut imposer aux performances de l’application lors du passage à l’échelle. Cette thèse se concentre sur l’étude du passage à l’échelle du support d’exécution StarPU (développé à Inria Bordeaux dans l’équipe STORM), qui implémente le modèle STF, dans le but d’optimiser les performances d’un solveur d’algèbre linéaire dense utilisé par le CEA pour faire de grandes simulations 3D. Nous avons collaboré avec l’équipe HiePACS d’Inria Bordeaux sur le logiciel Chameleon, qui est une collection de solveurs d’algèbre linéaire portés sur supports d’exécution à base de tâches, afin de produire un solveur d’algèbre linéaire dense sur StarPU efficace et qui passe à l’échelle jusqu’à 3 000 coeurs de calcul et 288 accélérateurs de type GPU du supercalculateur TERA-100 du CEA-DAM. / The ever-increasing supercomputer architectural complexity emphasizes the need for high-level parallel programming paradigms to design efficient, scalable and portable scientific applications. Among such paradigms, the task-based programming model abstracts away much of the architecture complexity by representing an application as a Directed Acyclic Graph (DAG) of tasks. Among them, the Sequential-Task-Flow (STF) model decouples the task submission step, sequential, from the parallel task execution step. While this model allows for further optimizations on the DAG of tasks at submission time, there is a key concern about the performance hindrance of sequential task submission when scaling. This thesis’ work focuses on studying the scalability of the STF-based StarPU runtime system (developed at Inria Bordeaux in the STORM team) for large scale 3D simulations of the CEA which uses dense linear algebra solvers. To that end, we collaborated with the HiePACS team of Inria Bordeaux on the Chameleon software, which is a collection of linear algebra solvers on top of task-based runtime systems, to produce an efficient and scalable dense linear algebra solver on top of StarPU up to 3,000 cores and 288 GPUs of CEA-DAM’s TERA-100 cluster.
97

Calcul à haute performance et simulations stochastiques : Etude de la reproductibiité numérique sur architectures multicore et manycore / High performance computing and stochastic simulation : Study of numerical reproducibility on multicore and manycore architectures

Dao, Van Toan 02 March 2017 (has links)
La reproductibilité des expériences numériques sur les systèmes de calcul à haute performance est parfois négligée. De plus, les méthodes numériques employées pour une parallélisation rigoureuse des simulations stochastiques sont souvent méconnues. En effet, les résultats obtenus pour une simulation stochastique utilisant des systèmes de calcul à hautes performances peuvent être différents d’une exécution à l’autre, et ce pour les mêmes paramètres et les même contextes d’exécution du fait de l’impact des nouvelles architectures, des accélérateurs, des compilateurs, des systèmes d’exploitation ou du changement de l’ordre d’exécution en parallèle des opérations en arithmétique flottantes au sein des micro-processeurs. En cas de non répétabilité des expériences numériques, comment mettre au point les applications ? Quel crédit peut-on apporter au logiciel parallèle ainsi développé ? Dans cette thèse, nous faisons une synthèse des causes de non-reproductibilité pour une simulation stochastique parallèle utilisant des systèmes de calcul à haute performance. Contrairement aux travaux habituels du parallélisme, nous ne nous consacrons pas à l’amélioration des performances, mais à l’obtention de résultats numériquement répétables d’une expérience à l’autre. Nous présentons la reproductibilité et ses apports dans la science numérique expérimentale. Nous proposons dans cette thèse quelques contributions, notamment : pour vérifier la reproductibilité et la portabilité des générateurs modernes de nombres pseudo-aléatoires ; pour détecter la corrélation entre flux parallèles issus de générateurs de nombres pseudo-aléatoires ; pour répéter et reproduire les résultats numériques de simulations stochastiques parallèles indépendantes. / The reproducibility of numerical experiments on high performance computing systems is sometimes overlooked. Moreover, the numerical methods used for rigorous parallelization of stochastic simulations are often unknown. Indeed, the results obtained for a stochastic simulation using high performance computing systems can be different from run to run with the same parameters and the same execution contexts due to the impact of new architectures, accelerators, compilers, operating systems or a changing of the order of execution of the floating arithmetic operations within the micro-processors for parallelizing optimizations. In the case of non-repeatability of numerical experiments, how can we seriously develop a scientific application? What credit can be given to the parallel software thus developed? In this thesis, we synthesize the main causes of non-reproducibility for a parallel stochastic simulation using high performance computing systems. Unlike the usual parallelism works, we do not focus on improving performance, but on obtaining numerically repeatable results from one experiment to another. We present the reproducibility and its contributions to the science of experimental and numerical computing. Furthermore, we propose some contributions, in particular: to verify the reproducibility and portability of top modern pseudo-random number generators, to detect the correlation between parallel streams issued from such generators, to repeat and reproduce the numerical results of independent parallel stochastic simulations.
98

Calcul haute-performance et dynamique moléculaire polarisable / High performance computing and polarizable molecular dynamics

Lagardère, Louis 15 May 2017 (has links)
Ce travail de thèse se situe à l'interface entre la chimie théorique, le calcul scientifique et les mathématiques appliquées. On s'intéresse aux différents algorithmes utilisés pour résoudre les équations spécifiques qui apparaissent dans le cadre de la dynamique moléculaire utilisant des champs de forces polarisables dans un cadre massivement parallèle. Cette famille de modèles nécessite en effet de résoudre des équations plus complexes que les modèles classiques usuels et rend nécessaire l'utilisation de supercalculateurs pour obtenir des résultats significatifs. On s'intéressera plus précisément à différents cas de conditions aux limites pour rendre compte des effets de solvatation comme les conditions aux limites périodiques traitées avec la méthode du Particle Mesh Ewald et un modèle de solvatation continu discrétisé par décomposition de domaine : le ddCOSMO. Le plan de cette thèse est le suivant : sont d'abord passées en revue les différentes stratégies parallèles en dynamique moléculaire en général, sont ensuite présentées les façons de les adapter au cas des champs de forces polarisables. Après quoi sont présentées différentes stratégies pour s'affranchir de certaines limites liées à l'usage de méthodes itératives en dynamique moléculaire polarisable en utilisant des approximations analytiques pour l'énergie de polarisation. Ensuite, l'adaptation de ces méthodes à différents cas pratiques de conditions aux limites est présentée : d'abord en ce qui concerne les conditions aux limites périodiques traitées avec la méthode du Particle Mesh Ewald et ensuite en ce qui concerne un modèle de solvatation continue discrétisé selon une stratégie de décomposition de domaine. / This works is at the interface between theoretical chemistry, scientific computing and applied mathematics. We study different algorithms used to solve the specific equations that arise in polarizable molecular dynamics in a massively parallel context. This family of models requires indeed to solve more complex equations than in the classical case making the use of supercomputers mandatory in order to get significant results. We will more specifically study different types of boundary conditions that represent different ways to model solvation effects : first the Particle Mesh Ewald method to treat periodic boundary conditions and then a continuum solvation model discretized within a domain decomposition strategy : the ddCOSMO. The outline of this thesis is as follows : first, the different parallel strategies in the general context of molecular dynamics are reviewed. Then several methods to adapt these strategies to the specific case of polarizable force fields are presented. After that, strategies that allow to circumvent certain limits due to the use of iterative methods in the context of polarizable molecular dynamics are presented and studied. Then, the adapation of these methods to different cases of boundary conditions is presented : first in the case of the Particle Mesh Ewald method to treat periodic boundary conditions and then in the case of a particular continuum solvation model discretized with a domain decomposition strategy : the ddCOSMO. Finally, various numerical results and applications are presented.
99

Efficient domain decomposition methods for electromagnetic modeling of scattering from forest environments / Méthodes de décomposition de domaine pour la modélisation électromagnétique de la diffusion par la forêt

Fenni, Ines 23 October 2014 (has links)
Cette thèse porte sur la modélisation et l’analyse de la propagation électromagnétique dans un milieu forestier dans les bandes VHF et UHF. L’objectif principal est le développement d’un modèle numérique "full-wave" tridimensionnel de diffusion par la forêt permettant de caractériser l’interaction d’une onde électromagnétique avec un milieu forestier. Un tel modèle s’avère, actuellement, un outil indispensable à l’analyse des mesures radar pour l’étude des paramètres caractéristiques de la forêt tels que la biomasse forestière, la hauteur des arbres et leur densité. La complexité numérique de ce modèle a limité son domaine d’application à de petites parcelles de forêt et aux basses fréquences. Pour pouvoir traiter de larges zones forestières tout en montant en fréquence, et s’approcher ainsi des besoins et exigences des utilisateurs potentiels de notre modèle, nous avons intégré à ce modèle une méthode numérique efficace dédiée à l’analyse de larges problèmes électromagnétiques. La méthode en question,connue sous le nom de Characteristic Basis Function Method (CBFM) était récemment développée dans le laboratoire de Communication et Electromagnétisme de l’université PennState dirigé par le Professeur Mittra. Après une optimisation et une adaptation au problème d’intérêt, la CBFM réalise d’excellentes performances et nous permet une diminution considérable du temps de calcul et des besoins en espace mémoire sans pour autant dégrader la qualité des résultats obtenus ou altérer la fidélité du modèle à la réalité du problème électromagnétique traité. / A 3-D full-wave model, based on the integral representation of the electric field and dedicatedto the analysis of bi-static scattering mechanisms by a forest in the VHF and UHF bands wasefficiently enhanced. In order to overcome the limitation of a previous 3D model to small simulationsscenes and low frequencies, we have developed, during this research work, a new model using basis functionsadapted to the problem of interest, in the context of the Characteristic Basis Function Method(CBFM) and we investigated the suitability of this direct method for computing the electromagneticfields inside and outside three-dimensional dielectric objects representing the tree trunks and branches.The CBFM has shown great performances, when applied to the forest scattering modeling, both interms of CPU time and memory resources needed. Once properly set, the CBFM-E is so efficient thatit is able to treat in few minutes electromagnetic problems totally intractable with the classical MoM.Consequently, we have developed a powerful 3D forest electromagnetic scattering tool which allows ustoday to compute large forest electromagnetic problems in few minutes without worrying about theaccuracy of the solution. On the other hand, we have demonstrated the efficiency and accuracy of theCBFM-E when applied to 3D dielectric objects in the context of the electric volumetric integral equation,and have consolidated thus its leading position in the computational electromagnetics, especiallyagainst the iterative solvers based numerical methods.
100

Méthodes de préconditionnement pour la résolution de systèmes linéaires sur des machines massivement parallèles / Preconditioning methods for solving linear systems on massively parallel machines

Qu, Long 10 April 2014 (has links)
Cette thèse traite d’une nouvelle classe de préconditionneurs qui ont pour but d’accélérer la résolution des grands systèmes creux, courant dans les problèmes scientifiques ou industriels, par les méthodes itératives préconditionnées. Pour appliquer ces préconditionneurs, la matrice d’entrée doit être réorganisée avec un algorithme de dissection emboîtée. Nous introduisons également une technique de recouvrement qui s’adapte à l’idée de chevauchement des sous-domaines provenant des méthodes de décomposition de domaine, aux méthodes de dissection emboîtée pour améliorer la convergence de nos préconditionneurs.Les résultats montrent que cette technique de recouvrement nous permet d’améliorer la vitesse de convergence de Nested SSOR (NSSOR) et Nested Modified incomplete LU with Rowsum proprety (NMILUR) qui sont des préconditionneurs que nous étudions. La dernière partie de cette thèse portera sur nos contributions dans le domaine du calcul parallèle. Nous présenterons la distribution des données et les algorithmes parallèles utilisés pour la mise en oeuvre de nos préconditionneurs. Les résultats montrent que sur une grille régulière 400x400x400, le nombre d’itérations nécessaire à la résolution avec un de nos préconditionneurs, Nested Filtering Factorization préconditionneur (NFF), n’augmente que légèrement quand le nombre de sous-domaines augmente jusqu’à 2048. En ce qui concerne les performances d’exécution sur le super-calculateur Curie, il passe à l’échelle jusqu’à 2048 coeurs et il est 2,6 fois plus rapide que le préconditionneur Schwarz Additif Restreint (RAS) qui est un des préconditionneurs basés sur les méthodes de décomposition de domaine implémentés dans la bibliothèque de calcul scientifique PETSc, bien connue de la communauté. / This thesis addresses a new class of preconditioners which aims at accelerating solving large sparse systems arising in scientific and engineering problem by using preconditioned iterative methods. To apply these preconditioners, the input matrix needs to be reordered with K-way nested dissection. We also introduce an overlapping technique that adapts the idea of overlapping subdomains from domain decomposition methods to nested dissection based methods to improve the convergence of these preconditioners. Results show that such overlapping technique improves the convergence rate of Nested SSOR (NSSOR) and Nested Modified Incomplete LU with Rowsum property (NMILUR) precondtioners that we worked on. We also present the data distribution and parallel algorithms for implementing these preconditioners. Results show that on a 400x400x400 regular grid, the number of iterations with Nested Filtering Factorization preconditioner (NFF) increases slightly while increasing the number of subdomains up to 2048. In terms of runtime performance on Curie supercomputer, it scales up to 2048 cores and it is 2.6 times faster than the domain decomposition preconditioner Restricted Additive Schwarz (RAS) as implemented in PETSc.

Page generated in 0.0666 seconds