• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 16
  • 1
  • Tagged with
  • 38
  • 14
  • 9
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contribution à l'algorithmique et à la programmation efficace des nouvelles architectures parallèles comportant des accélérateurs de calcul dans le domaine de la neutronique et de la radioprotection / Contribution to the algorithmic and efficient programming of new parallel architectures including accelerators for neutron physics and shielding computations

Dubois, Jérôme 13 October 2011 (has links)
Dans le domaine des sciences et technologies, la simulation numérique est un élément-clé des processus de recherche ou de validation. Grâce aux moyens informatiques modernes, elle permet des expérimentations numériques rapides et moins coûteuses que des maquettes réelles, sans pour autant les remplacer totalement, mais permettant de réaliser des expérimentations mieux calibrées. Dans le domaine de la physique des réacteurs et plus précisément de la neutronique, le calcul de valeurs propres est la base de la résolution de l’équation du transport des neutrons. La complexité des problèmes à résoudre (dimension spatiale, énergétique, nombre de paramètres, …) est telle qu’une grande puissance de calcul peut être nécessaire. Les travaux de cette thèse concernent dans un premier temps l’évaluation des nouveaux matériels de calculs tels que les cartes graphiques ou les puces massivement multicoeurs, et leur application aux problèmes de valeurs propres pour la neutronique. Ensuite, dans le but d’utiliser le parallélisme massif des supercalculateurs, nous étudions également l’utilisation de méthodes hybrides asynchrones pour résoudre des problèmes à valeur propre avec ce très haut niveau de parallélisme. Nous expérimentons ensuite le résultat de ces recherches sur plusieurs supercalculateurs nationaux tels que la machine hybride Titane du Centre de Calcul, Recherche et Technologies (CCRT), la machine Curie du Très Grand Centre de Calcul (TGCC) qui est en cours d’installation, et la machine Hopper du Lawrence Berkeley National Laboratory (LBNL), mais également sur des stations de travail locales pour illustrer l’intérêt de ces recherches dans une utilisation quotidienne avec des moyens de calcul locaux. / In science, simulation is a key process for research or validation. Modern computer technology allows faster numerical experiments, which are cheaper than real models. In the field of neutron simulation, the calculation of eigenvalues is one of the key challenges. The complexity of these problems is such that a lot of computing power may be necessary. The work of this thesis is first the evaluation of new computing hardware such as graphics card or massively multicore chips, and their application to eigenvalue problems for neutron simulation. Then, in order to address the massive parallelism of supercomputers national, we also study the use of asynchronous hybrid methods for solving eigenvalue problems with this very high level of parallelism. Then we experiment the work of this research on several national supercomputers such as the Titane hybrid machine of the Computing Center, Research and Technology (CCRT), the Curie machine of the Very Large Computing Centre (TGCC), currently being installed, and the Hopper machine at the Lawrence Berkeley National Laboratory (LBNL). We also do our experiments on local workstations to illustrate the interest of this research in an everyday use with local computing resources.
2

Méthode de Krylov itératives avec communication et efficacité énergétique optimisées sur machine hétérogène / Krylov iterative method with communication and energy efficiency optimization on heterogeneous clusters

Chen, Langshi 04 November 2015 (has links)
Les méthodes de Krylov sont fréquemment utilisés dans des problèmes linéaires, comme de résoudre des systèmes linéaires ou de trouver des valeurs propres et vecteurs propres de matrices, avec une taille extrêmement grande. Comme ces méthodes itératives nécessitent un calcul intensif, ils sont normalement déployés sur des grands clusters avec les mémoires distribués et les données communiqués par MPI. Lorsque la taille du problème augmente, la communication devient un bouchon principale d'atteindre une haute scalabité à cause de deux raisons: 1) La plupart des méthodes itératives comptent sur BLAS-2 matrices-vecteurs opérations de bas niveau qui sont communication intensive. 2) Le mouvement de données (accès à la mémoire, la communication par MPI) est beaucoup plus lent que la fréquence du processeur. Dans le cas des opérations de matrice creuse tels que la multiplication de matrices creuses et vecteurs (SpMV), le temps de communication devient dominant par rapport au temps de calcul. En outre, l'avènement des accélérateurs et coprocesseurs comme le GPU de NVIDIA fait le coût du calcul moins cher, tandis que le coût de la communication reste élevé dans des systèmes hétérogènes. Ainsi, la première partie de nos travaux se concentre sur l'optimisation des coûts de communication pour des méthodes itératives sur des clusters hétérogènes. En dehors du coût de communication, le mur de la puissance et de l’énergie devient un autre bouchon de scalabité pour le futur calcul exascale. Les recherches indiquent que la mise en œuvre des implémentations d'algorithmes qui sont informées pourrait efficacement réduire la dissipation de puissance des clusters. Nous explorons également la mise en œuvre des méthodes et des implémentations qui économisent l'énergie dans notre expérimentation. Enfin, l'optimisation de la communication et la mise en œuvre de l'efficacité énergétique seraient intégrés dans un schéma de méthode GMRES, qui exige un cadre d'auto-tuning pour optimiser sa performance. / Iterative methods are frequently used in extremely large scale linear problems, such solving linear systems or finding eigenvalue/eigenvectors of matrices. As these iterative methods require a substantial computational workload, they are normally deployed on large clusters of distributed memory architectures communicated via MPI. When the problem size scales up, the communication becomes a major bottleneck of reaching a higher scalability because of two reasons: 1) Many of the iterative methods rely on BLAS-2 low level matrix vector kernels that are communication intensive. 2) Data movement (memory access, MPI communication) is much slower than processor's speed. In case of sparse matrix operations such as Sparse Matrix Vector Multiplication (SpMV), the communication even replaces the computation as the dominant time cost. Furthermore, the advent of accelerators/coprocessors like Nvidia's GPU make computation cost more cheaper, while the communication cost remains high in such CPU-coprocessor heterogeneous systems. Thus, the first part of our work focus on the optimization of communication cost of iterative methods on heterogeneous clusters. Besides the communication cost, power wall becomes another bottleneck of future exascale computing in recent time. Researches indicate that a power-aware algorithmic implementation strategy could efficiently reduce the power dissipation of large clusters. We also explore the potential energy saving implementation of iterative methods in our experimentation. Finally, both the communication optimization and energy efficiency implementation would be integrated into a GMRES method, which demands an auto-tuning framework to maximize its performance.
3

Etude d'un profileur optique de faisceaux intenses de protons par absorption laser

Pottin, Bruno 18 October 2001 (has links) (PDF)
Pas de resume disponible
4

Optimisation des performances et de la complexité dans les architectures multiprocesseurs hétérogènes sur puce / Performance and complexity optimization in heterogeneous multiprocessors system on chip

Dammak Masmoudi, Bouthaina 06 November 2015 (has links)
Les travaux présentés dans cette thèse visent le développement d'une méthodologie capable d’estimer rapidement les performances d’une architecture MPSoC avec des instructions spécialisées. Pour ces architectures, l’outil proposé intègre une méthodologie de partage des accélérateurs hardwares pour les mêmes motifs de calcul. L’idée est donc de trouver dans les différentes applications parallèles exécutées par les différents processeurs des motifs de calcul communs. Ces motifs seront alors implantés sur le FPGA par un nombre réduit d’accélérateurs partagés entre les processeurs. Grâce à des modèles de programmation mixte, la méthodologie développée est capable de trouver, pour des performances exigés par le concepteur, le nombre optimal d’accélérateurs privés et/ou partagés pour les différents motifs. / No summary in english
5

Conception, fabrication et contrôle d'un robot parallèle entraîné par câbles pour l'étalonnage des machines de radiothérapie

Mersi, Ramin 04 April 2024 (has links)
Titre de l'écran-titre (visionné le 25 mars 2024) / Les fantômes d'eau sont des outils essentiels pour assurer l'étalonnage précis des machines de radiothérapie et des traitements efficaces en utilisant l'eau comme moyen de simulation des tissus humains. Dans ce mémoire, nous présentons toutes les étapes de la synthèse, de la création d'un prototype et du contrôle d'un nouveau fantôme d'eau automatisé basé sur un robot parallèle à câbles de 5 degrés de liberté. Ce système pourrait offrir plusieurs avantages par rapport aux fantômes d'eau existants, notamment un mouvement plus rapide et la capacité d'effectuer des mesures angulaires grâce à sa plage de rotation continue de 90 degrés. Notre approche a commencé par l'identification de l'architecture la plus appropriée pour le robot, impliquant le calcul de l'espace des torseurs faisables en force pour toutes les configurations 5-DDL avec 8 câbles, en fonction de nos points d'attache de câbles prédéfinis. Un algorithme d'élagage a été développé pour éliminer rapidement les architectures qui ne couvraient pas la plage de rotations souhaitée, facilitant ainsi l'identification de l'architecture optimale. De plus, nous avons conçu une méthode pour calculer un espace de travail rotationnel sans interférence pour notre conception choisie. En termes de contrôle, nous avons détaillé le schéma de contrôle, la planification de la trajectoire, le problème géométrique direct et les matrices Jacobiennes pour notre robot parallèle à câbles de 5-DDL. En outre, nous avons résolu le défi de la singularité de représentation rencontré dans notre projet, en adoptant une représentation vectorielle unitaire pour l'orientation. Le processus de conception du robot a été méticuleusement décrit, y compris la justification de la sélection des composants. Nous avons divisé le prototype global en trois sections principales: la structure, les systèmes de treuil et les poulies pivotantes, en fournissant des informations détaillées sur chacune. Le processus de calibrage du robot a également été discuté, ainsi que les défis rencontrés. Enfin, nous avons mené un test sous une machine de radiothérapie, cartographiant le rayonnement avec le capteur d'ionisation connecté à l'effecteur final. Bien que nous ayons compté uniquement sur l'encodeur du moteur pour la rétroaction de position et que cette méthode manque de la précision nécessaire pour cette application, les résultats étaient très prometteurs. Notre conception innovante de fantôme d'eau démontre le potentiel comme nouvelle méthode efficace et précise pour l'étalonnage des machines de radiothérapie, avec la capacité d'améliorer considérablement les résultats pour les patients dans la pratique clinique. / Water phantoms are critical tools for ensuring the accurate calibration of radiotherapy machines and effective treatments by using water as a medium for simulating human tissue. In this memoir, we present all the steps of synthesizing, prototyping and controlling a novel automated water phantom based on a 5-degree-of-freedom cable-driven parallel robot. The system could offer several advantages over existing water phantoms, including faster movement and the ability to perform angular measurements due to its 90-degree continuous range of rotation. Our approach began with identifying the most suitable architecture for the robot, involving the calculation of the wrench-feasible workspace for all the 5-DoF configurations with 8 cables, based on our predetermined cable attachment points. A pruning algorithm was developed to rapidly eliminate architectures that failed to cover the desired range of rotations, thereby facilitating the easier identification of the optimal architecture. Furthermore, we devised a method to calculate an interference-free rotational workspace for our chosen design. In terms of control, we detailed the control schematic, trajectory planning, forward kinematics, and Jacobian matrices for our 5-DoF CDPR. Furthermore, we addressed the challenge of representation singularity encountered in our project, resolving it by adopting a unit vector representation for orientation. The design process of the robot was meticulously outlined, including the rationale behind component selection. We divided the overall prototype into three main sections: the structure, winch systems, and swivel pulleys, providing detailed insights into each. The calibration process of the robot was also discussed, along with the challenges encountered. Finally, we conducted a test under a radiotherapy machine, mapping radiation with the ionization sensor connected to the end-effector. Although we relied solely on the motor's encoder for position feedback, which lacks the precision needed for this application, the results were very promising. Our innovative water phantom design demonstrates potential as a new, efficient, and precise method for calibrating radiotherapy machines, with the capability to significantly improve patient outcomes in clinical practice.
6

Le choix des architectures hybrides, une stratégie réaliste pour atteindre l'échelle exaflopique. / The choice of hybrid architectures, a realistic strategy to reach the Exascale.

Loiseau, Julien 14 September 2018 (has links)
La course à l'Exascale est entamée et tous les pays du monde rivalisent pour présenter un supercalculateur exaflopique à l'horizon 2020-2021.Ces superordinateurs vont servir à des fins militaires, pour montrer la puissance d'une nation, mais aussi pour des recherches sur le climat, la santé, l'automobile, physique, astrophysique et bien d'autres domaines d'application.Ces supercalculateurs de demain doivent respecter une enveloppe énergétique de 1 MW pour des raisons à la fois économiques et environnementales.Pour arriver à produire une telle machine, les architectures classiques doivent évoluer vers des machines hybrides équipées d'accélérateurs tels que les GPU, Xeon Phi, FPGA, etc.Nous montrons que les benchmarks actuels ne nous semblent pas suffisants pour cibler ces applications qui ont un comportement irrégulier.Cette étude met en place une métrique ciblant les aspects limitants des architectures de calcul: le calcul et les communications avec un comportement irrégulier.Le problème mettant en avant la complexité de calcul est le problème académique de Langford.Pour la communication nous proposons notre implémentation du benchmark du Graph500.Ces deux métriques mettent clairement en avant l'avantage de l'utilisation d'accélérateurs, comme des GPUs, dans ces circonstances spécifiques et limitantes pour le HPC.Pour valider notre thèse nous proposons l'étude d'un problème réel mettant en jeu à la fois le calcul, les communications et une irrégularité extrême.En réalisant des simulations de physique et d'astrophysique nous montrons une nouvelle fois l'avantage de l'architecture hybride et sa scalabilité. / The countries of the world are already competing for Exascale and the first exaflopics supercomputer should be release by 2020-2021.These supercomputers will be used for military purposes, to show the power of a nation, but also for research on climate, health, physics, astrophysics and many other areas of application.These supercomputers of tomorrow must respect an energy envelope of 1 MW for reasons both economic and environmental.In order to create such a machine, conventional architectures must evolve to hybrid machines equipped with accelerators such as GPU, Xeon Phi, FPGA, etc.We show that the current benchmarks do not seem sufficient to target these applications which have an irregular behavior.This study sets up a metrics targeting the walls of computational architectures: computation and communication walls with irregular behavior.The problem for the computational wall is the Langford's academic combinatorial problem.We propose our implementation of the Graph500 benchmark in order to target the communication wall.These two metrics clearly highlight the advantage of using accelerators, such as GPUs, in these specific and representative problems of HPC.In order to validate our thesis we propose the study of a real problem bringing into play at the same time the computation, the communications and an extreme irregularity.By performing simulations of physics and astrophysics we show once again the advantage of the hybrid architecture and its scalability.
7

Architecture and Programming Model Support for Reconfigurable Accelerators in Multi-Core Embedded Systems / Architecture et modèle de programmation pour accélérateurs reconfigurables dans les systèmes embarqués multi-coeurs

Das, Satyajit 04 June 2018 (has links)
La complexité des systèmes embarqués et des applications impose des besoins croissants en puissance de calcul et de consommation énergétique. Couplé au rendement en baisse de la technologie, le monde académique et industriel est toujours en quête d'accélérateurs matériels efficaces en énergie. L'inconvénient d'un accélérateur matériel est qu'il est non programmable, le rendant ainsi dédié à une fonction particulière. La multiplication des accélérateurs dédiés dans les systèmes sur puce conduit à une faible efficacité en surface et pose des problèmes de passage à l'échelle et d'interconnexion. Les accélérateurs programmables fournissent le bon compromis efficacité et flexibilité. Les architectures reconfigurables à gros grains (CGRA) sont composées d'éléments de calcul au niveau mot et constituent un choix prometteur d'accélérateurs programmables. Cette thèse propose d'exploiter le potentiel des architectures reconfigurables à gros grains et de pousser le matériel aux limites énergétiques dans un flot de conception complet. Les contributions de cette thèse sont une architecture de type CGRA, appelé IPA pour Integrated Programmable Array, sa mise en œuvre et son intégration dans un système sur puce, avec le flot de compilation associé qui permet d'exploiter les caractéristiques uniques du nouveau composant, notamment sa capacité à supporter du flot de contrôle. L'efficacité de l'approche est éprouvée à travers le déploiement de plusieurs applications de traitement intensif. L'accélérateur proposé est enfin intégré à PULP, a Parallel Ultra-Low-Power Processing-Platform, pour explorer le bénéfice de ce genre de plate-forme hétérogène ultra basse consommation. / Emerging trends in embedded systems and applications need high throughput and low power consumption. Due to the increasing demand for low power computing and diminishing returns from technology scaling, industry and academia are turning with renewed interest toward energy efficient hardware accelerators. The main drawback of hardware accelerators is that they are not programmable. Therefore, their utilization can be low is they perform one specific function and increasing the number of the accelerators in a system on chip (SoC) causes scalability issues. Programmable accelerators provide flexibility and solve the scalability issues. Coarse-Grained Reconfigurable Array (CGRA) architecture consisting of several processing elements with word level granularity is a promising choice for programmable accelerator. Inspired by the promising characteristics of programmable accelerators, potentials of CGRAs in near threshold computing platforms are studied and an end-to-end CGRA research framework is developed in this thesis. The major contributions of this framework are: CGRA design, implementation, integration in a computing system, and compilation for CGRA. First, the design and implementation of a CGRA named Integrated Programmable Array (IPA) is presented. Next, the problem of mapping applications with control and data flow onto CGRA is formulated. From this formulation, several efficient algorithms are developed using internal resources of a CGRA, with a vision for low power acceleration. The algorithms are integrated into an automated compilation flow. Finally, the IPA accelerator is augmented in PULP - a Parallel Ultra-Low-Power Processing-Platform to explore heterogeneous computing.
8

Search for new physics in events with same sign leptons and missing energy with ATLAS at LHC

Ducu, Otilia-Anamaria 15 October 2015 (has links)
Dans les études présentées ici, seules les données collectées par le détecteur ATLAS sont analysées. La première partie du document décrit en détails le contexte théorique sous-jacent à ces études, ainsi que lecolllisioneur LHC et l'expérience ATLAS. Le LHC étant un collisionneur hadronique, l'identification et la reconstruction des leptons est cruciale pour les mesures précises de section efficaces des processus du Modèle Standard, ou la recherche de nouvelle physique. C'est pourquoi la deuxième partie du document est dédiée aux mesures de performances : mesures in situ des efficacités de reconstruction et d'identification des électrons. La recherche de nouvelle physique est présentée dans la troisième partie du document. Cette étude a été réalisée dans le canal incluant deux leptons de même charge et de l'énergie transverse manquante. Les résultats inclus ont été obtenus avec un ensemble de données collectées à $sqrt s$ = 8 TeV correspondant à une luminosité intégrée de L = 20 fb$^{-1}$, ainsi que les premières données collectées avec $sqrt s$ = 13 TeV. L'état final constitué d'une paire de leptons de même charge et de jets permet également la mesure directe du couplage de Yukawa pour le quark top, à l'aide du processus $ppto tbar tH$. Ce couplage est le plus élevé dans le Modèle Standard et associe les deux particules élémentaires les plus lourdes prédites par la théorie, le quark top et le boson de Higgs. Dans la quatrième partie de ce document, une étude complète de la sensibilité pouvant être atteinte avec une énergie de $sqrt s$ = 13TeV et une luminosité intégrée de 100 fb$^{-1}$ of data, est présentée pour le canal incluant deux leptons de même charge. / For the presented studies only the data recorded with the ATLAS detector is analyzed. The theoretical framework, the LHC collider and the ATLAS experiment are given in the first part of this thesis.At hadron colliders, the lepton identification and reconstruction are crucial for precise SM cross sections and coupling measurements or for new physics searches. Therefore, the second part of my thesis is dedicated to performance studies : in-situ measurements of electron identification and reconstruction efficiencies. The search for new physics is presented in the third part of the thesis. For these studies the channel with two same~- sign leptons and missing transverse energy is considered. The results are obtained with $L$~=~20 fb$^{-1}$ of data recorded at $sqrt s$ = 8 TeV and with the very first data at $sqrt s$ = 13 TeV. At the end of Run-1 no significant excess in data over the Standard Model prediction is observed and stringent limits on the supersymmetric particle masses are set. With the two same - sign leptons and jets final state it is also possible to measure directly the top quark Yukawa coupling using the ttbar + $H$ channel. This coupling is the largest in the Standard Model and it connects two of the heaviest particles predicted by the Standard Model, the top quark and the Higgs boson. In the fourth part of this thesis, a complete optimization is performed to reach the highest sensitivity for this signal in the two same~- sign leptons channel at $sqrt s$ = 13 TeV with 100 fb$^{-1}$ of data, corresponding to the end of Run-2.
9

Etude et test d'un module accélérateur supraconducteur pour le projet Spiral2

Longuevergne, D. 19 November 2009 (has links) (PDF)
Le projet SPIRAL2, en phase de construction au GANIL à Caen, viendra augmenter les capacités de production et d'accélération de l'actuelle installation SPIRAL. Cette extension consiste en la construction d'une zone de production d'isotopes radioactifs associée à un accélérateur linéaire supraconducteur. Ce dernier permet l'accélération de faisceaux de deutons de 5 mA à 40 MeV ainsi que d'une grande variété d'ions (protons, deutons, ions ayant un rapport charge/masse de 1/3) jusqu'à une énergie de 14.5 MeV/u et un courant de 1 mA. Le taux de fission visé (~ 1014 fissions/s) ainsi que cette grande polyvalence d'accélération sont rendus possible grâce à l'utilisation de la technologie supraconductrice. L'étude, la conception et l'intégration des modules accélérateurs supraconducteurs de la partie haute énergie ont été effectuées à l'Institut de Physique Nucléaire d'Orsay (IPNO). Le travail de thèse présenté ici s'inscrit dans ce contexte. Dans un premier temps, les cavités accélératrices supraconductrices de type quart-d'onde ont été validées et caractérisées d'un point de vue électromagnétique et mécanique en cryostat de qualification (-269 °C). Par la suite, un module accélérateur totalement équipé a été qualifié en configuration dite « machine ». Des études plus spécifiques ont également été menées sur l'effet 100K, les microphonies et la caractérisation du système d'accord en fréquence par plongeur mobile, système novateur pour les cavités supraconductrices. La validation des performances du module accélérateur à travers ce travail de thèse a donné lieu au lancement de la phase de fabrication des cavités accélératrices et des cryomodules.
10

Etude de dipôles supraconducteurs en Nb3Sn à haut champ : isolation électrique à base de céramique et conception magnétique.

Rochepault, Etienne 04 October 2012 (has links) (PDF)
Dans le contexte des améliorations du LHC, des efforts importants sont fournis pour concevoir des aimants d'accélérateurs utilisant l'alliage supraconducteur Nb3Sn, qui permet d'atteindre des champs magnétiques plus élevés (>12T). Le but de cette thèse est de proposer de nouvelles méthodes de calcul et de fabrication de dipôles à haut champ en Nb3Sn. Une isolation céramique, mise au point précédemment au CEA Saclay, a été testée pour la première fois sur des câbles, dans les conditions d'utilisation d'un aimant d'accélérateur. Des mesures de courant critique sous champ magnétique et contrainte mécanique ont notamment été réalisées. Ces campagnes d'essais ont révélé que l'isolation céramique actuelle est trop fragile mécaniquement et que les propriétés de courant critique sont dégradées. Une étude a ensuite été menée, afin d'améliorer la tenue mécanique de l'isolation et de mieux répartir les contraintes à l'intérieur du câble. Des méthodes de conception magnétique ont par ailleurs été proposées afin d'optimiser la forme des bobinages, tout en respectant des contraintes d'homogénéité de champ, de marges de fonctionnement, de minimisation des efforts... Pour cela plusieurs codes d'optimisation ont été élaborés. Ils se basent sur des méthodes nouvelles utilisant des formules analytiques. Un code 2D a d'abord été élaboré pour des conceptions en blocs rectangulaires. Ensuite, deux codes 3D ont été conçus pour l'optimisation des têtes de dipôles. Le premier consiste à modéliser le bobinage à l'aide de blocs élémentaires, et le deuxième se base sur une modélisation des câbles supraconducteurs par des rubans. Ces codes d'optimisation ont permis de proposer des configurations magnétiques pour des aimants à haut champ.

Page generated in 0.0466 seconds