• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
741

Some Domain Decomposition and Convex Optimization Algorithms with Applications to Inverse Problems

Chen, Jixin 15 June 2018 (has links)
Domain decomposition and convex optimization play fundamental roles in current computation and analysis in many areas of science and engineering. These methods have been well developed and studied in the past thirty years, but they still require further study and improving not only in mathematics but in actual engineering computation with exponential increase of computational complexity and scale. The main goal of this thesis is to develop some efficient and powerful algorithms based on domain decomposition method and convex optimization. The topicsstudied in this thesis mainly include two classes of convex optimization problems: optimal control problems governed by time-dependent partial differential equations and general structured convex optimization problems. These problems have acquired a wide range of applications in engineering and also demand a very high computational complexity. The main contributions are as follows: In Chapter 2, the relevance of an adequate inner loop starting point (as opposed to a sufficient inner loop stopping rule) is discussed in the context of a numerical optimization algorithm consisting of nested primal-dual proximal-gradient iterations. To study the optimal control problem, we obtain second order domain decomposition methods by combining Crank-Nicolson scheme with implicit Galerkin method in the sub-domains and explicit flux approximation along inner boundaries in Chapter 3. Parallelism can be easily achieved for these explicit/implicit methods. Time step constraints are proved to be less severe than that of fully explicit Galerkin finite element method. Based on the domain decomposition method in Chapter 3, we propose an iterative algorithm to solve an optimal control problem associated with the corresponding partial differential equation with pointwise constraint for the control variable in Chapter 4. In Chapter 5, overlapping domain decomposition methods are designed for the wave equation on account of prediction-correction" strategy. A family of unit decomposition functions allow reasonable residual distribution or corrections. No iteration is needed in each time step. This dissertation also covers convergence analysis from the point of view of mathematics for each algorithm we present. The main discretization strategy we adopt is finite element method. Moreover, numerical results are provided respectivelyto verify the theory in each chapter. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
742

Algorithmes de résolution de la dynamique du contact avec impact et frottement / Algorithms of resolution of contact dynamics with impact and friction

Haddouni, Mounia 27 May 2015 (has links)
La simulation des systèmes multicorps avec une dynamique non régulière trouve ses applications dans différents domaines comme l'aéronautique, l'automobile, le ferroviaire, la robotique, la réalité virtuelle et même l'industrie horlogère. Ces industries ont de plus en plus d'exigences sur la rapidité ainsi que la précision des méthodes utilisées pour calculer la dynamique. Par conséquent, la recherche dans le domaine de la mécanique non régulière est très active et a pour objectif constant de proposer des algorithmes plus robustes et plus rapides pour calculer la dynamique ainsi que de développer de meilleurs modèles pour le contact avec ou sans frottement. Les méthodes proposées doivent en plus bien gérer les sauts dans la vitesse et l'accélération des systèmes, ces sauts résultent de phénomènes tels que l'impact et le frottement. Dans ce manuscrit, quelques méthodes d'intégration d'équations différentielles algébriques d'index 3, 2 et 1 sont testées sur plusieurs mécanismes industriels avec contraintes unilatérales et bilatérales. Ces méthodes sont ensuite comparées sur la base de la satisfaction des contraintes bilatérales, de l'efficacité numérique et de leur capacité à gérer une dynamique raide. Cette étude a aussi permis d'apporter une réponse claire sur le choix de la méthode d'intégration pour un système mécanique connaissant ses caractéristiques (nombre de contacts, présence de contraintes bilatérales, dynamique raide...). La deuxième partie de ce travail traite certains problèmes qui sont fréquemment rencontrés dans la simulation des systèmes multicorps, notamment: le phénomène d'accumulation des impacts, la résolution du frottement, ainsi que la gestion des sauts qui peuvent être provoqués par la présence de singularités géométriques. Calculer la dynamique dans ces cas est particulièrement difficile dans le cadre des schémas event-driven. La solution proposée est un schéma d'intégration mixte "event-driven/time-stepping" dont le but est d'utiliser les avantages de chacune des familles d'intégration (event-driven et time-stepping). Notre algorithme est ensuite testé sur de nombreux exemples. / The applications of the nonsmooth multibody systems field cover several fields including aeronautics, automotive, robotics, railway, virtual reality and watch industry to cite a few. These industrial applications have ever more stringent requirements on both accuracy and speed of the numerical methods used for the computation of the dynamics. As a consequence, the research in the nonsmooth mechanics domain is very active, to provide better integration methods for the resolution of the equations of motions and to develop better models for the contact problems with and without friction. Since the nonsmooth mechanics framework allows for jumps in the velocity and in the acceleration of the mechanical systems, the resulting algorithms have to handle such non-smoothness. In this PhD, several numerical schemes for the resolution of index-3, index-2 and index-1 DAEs are compared on industrial benchmarks with bilateral and unilateral constraints. The aim is to improve the efficiency of the Ansys Rigid Body solver which is based on an event-driven integration strategy. Points of comparison include the enforcement of the bilateral constraints, time efficiency and handling the stiff dynamics. This study also aimed at having a clear idea on the choice of the most suitable integration method for a given mechanical system knowing its characteristics (number of contacts, presence of bilateral constraints, stiff dynamics...). The second part discusses several issues that frequently occur in the simulation of multibody systems, namely, the problem of accumulation of impacts, the resolution of friction and handling the jumps resulting from the presence of some geometrical singularities. Dealing with such issues is very difficult, especially in the framework of event-driven schemes. In order to handle these problems, a mixed event-driven/time-stepping scheme is developed which takes advantage of both integration families (event-driven and time-stepping). Several examples are used to validate our methodology.
743

Qualitative calculi with heterogeneous universes / Calculs qualitatifs avec des univers hétérogènes

Inants, Armen 25 April 2016 (has links)
Représentation et raisonnement qualitatifs fonctionnent avec des relations non-numériques entre les objets d'un univers. Les formalismes généraux développés dans ce domaine sont basés sur différents types d'algèbres de relations, comme les algèbres de Tarski. Tous ces formalismes, qui sont appelés des calculs qualitatifs, partagent l'hypothèse implicite que l'univers est homogène, c'est-à-dire qu'il se compose d'objets de même nature. Toutefois, les objets de différents types peuvent aussi entretenir des relations. L'état de l'art du raisonnement qualitatif ne permet pas de combiner les calculs qualitatifs pour les différents types d'objets en un seul calcul.De nombreuses applications discriminent entre différents types d'objets. Par exemple, certains modèles spatiaux discriminent entre les régions, les lignes et les points, et différentes relations sont utilisées pour chaque type d'objets. Dans l'alignement d'ontologies, les calculs qualitatifs sont utiles pour exprimer des alignements entre un seul type d'entités, telles que des concepts ou des individus. Cependant, les relations entre les individus et les concepts, qui imposent des contraintes supplémentaires, ne sont pas exploitées.Cette thèse introduit la modularité dans les calculs qualitatifs et fournit une méthodologie pour la modélisation de calculs qualitatifs des univers hétérogènes. Notre contribution principale est un cadre basé sur une classe spéciale de schémas de partition que nous appelons modulaires. Pour un calcul qualitatif engendré par un schéma de partition modulaire, nous définissons une structure qui associe chaque symbole de relation avec un domaine et codomain abstrait à partir d'un treillis booléen de sortes. Un module d'un tel calcul qualitatif est un sous-calcul limité à une sorte donnée, qui est obtenu par une opération appelée relativisation à une sorte. D'un intérêt pratique plus grand est l'opération inverse, qui permet de combiner plusieurs calculs qualitatifs en un seul calcul. Nous définissons une opération appelée combinaison modulo liaison, qui combine deux ou plusieurs calculs qualitatifs sur différents univers, en fonction de quelques relations de liaison entre ces univers. Le cadre est suffisamment général pour soutenir la plupart des calculs spatio-temporels qualitatifs connus. / Qualitative representation and reasoning operate with non-numerical relations holding between objects of some universe. The general formalisms developed in this field are based on various kinds of algebras of relations, such as Tarskian relation algebras. All these formalisms, which are called qualitative calculi, share an implicit assumption that the universe is homogeneous, i.e., consists of objects of the same kind. However, objects of different kinds may also entertain relations. The state of the art of qualitative reasoning does not offer a combination operation of qualitative calculi for different kinds of objects into a single calculus.Many applications discriminate between different kinds of objects. For example, some spatial models discriminate between regions, lines and points, and different relations are used for each kind of objects. In ontology matching, qualitative calculi were shown useful for expressing alignments between only one kind of entities, such as concepts or individuals. However, relations between individuals and concepts, which impose additional constraints, are not exploited.This dissertation introduces modularity in qualitative calculi and provides a methodology for modeling qualitative calculi with heterogeneous universes. Our central contribution is a framework based on a special class of partition schemes which we call modular. For a qualitative calculus generated by a modular partition scheme, we define a structure that associates each relation symbol with an abstract domain and codomain from a Boolean lattice of sorts. A module of such a qualitative calculus is a sub-calculus restricted to a given sort, which is obtained through an operation called relativization to a sort. Of a greater practical interest is the opposite operation, which allows for combining several qualitative calculi into a single calculus. We define an operation called combination modulo glue, which combines two or more qualitative calculi over different universes, provided some glue relations between these universes. The framework is general enough to support most known qualitative spatio-temporal calculi.
744

Approche parcimonieuse et calcul haute performance pour la tomographie itérative régularisée. / Computationally Efficient Sparse Prior in Regularized Iterative Tomographic Reconstruction

Notargiacomo, Thibault 14 February 2017 (has links)
La tomographie est une technique permettant de reconstruire une carte des propriétés physiques de l'intérieur d'un objet, à partir d'un ensemble de mesures extérieures. Bien que la tomographie soit une technologie mature, la plupart des algorithmes utilisés dans les produits commerciaux sont basés sur des méthodes analytiques telles que la rétroprojection filtrée. L'idée principale de cette thèse est d'exploiter les dernières avancées dans le domaine de l'informatique et des mathématiques appliqués en vue d'étudier, concevoir et implémenter de nouveaux algorithmes dédiés à la reconstruction 3D en géométrie conique. Nos travaux ciblent des scenarii d'intérêt clinique tels que les acquisitions faible dose ou faible nombre de vues provenant de détecteurs plats. Nous avons étudié différents modèles d'opérateurs tomographiques, leurs implémentations sur serveur multi-GPU, et avons proposé l'utilisation d'une transformée en ondelettes complexes 3D pour régulariser le problème inverse. / X-Ray computed tomography (CT) is a technique that aims at providing a measure of a given property of the interior of a physical object, given a set of exterior projection measurement. Although CT is a mature technology, most of the algorithm used for image reconstruction in commercial applications are based on analytical methods such as the filtered back-projection. The main idea of this thesis is to exploit the latest advances in the field of applied mathematics and computer sciences in order to study, design and implement algorithms dedicated to 3D cone beam reconstruction from X-Ray flat panel detectors targeting clinically relevant usecases, including low doses and few view acquisitions.In this work, we studied various strategies to model the tomographic operators, and how they can be implemented on a multi-GPU platform. Then we proposed to use the 3D complex wavelet transform in order to regularize the reconstruction problem.
745

Vers une simulation par éléments finis en temps réel pour le génie électrique / Towards a real-time simulation by finite elements for electrical engineering

Dinh, Van Quang 15 December 2016 (has links)
Les phénomènes physiques dans le domaine de génie électrique sont basés sur les équations de Maxwell qui sont des équations aux dérivés partielles dont les solutions sont des fonctions s’appuyant sur les propriétés des matériaux et vérifiant certaines conditions aux limites du domaine d’étude. La méthode des éléments finis (MEF) est la méthode la plus couramment utilisée pour calculer les solutions de ces équations et en déduire les champs et inductions magnétiques et électriques. De nos jours, le calcul parallèle GPU (Graphic Processor Unit) présente un potentiel important de performance à destination du calcul numérique par rapport au calcul traditionnel par CPU. Le calcul par GPU consiste à utiliser un processeur graphique (Graphic Processor Unit) en complément du CPU pour accélérer les applications en sciences et en ingénierie. Le calcul par GPU permet de paralléliser massivement les tâches et d'offrir ainsi un maximum de performances en accélérant les portions de code les plus lourdes, le reste de l'application restant affectée au CPU. Cette thèse s’inscrit dans le contexte de modélisation dans le domaine de génie électrique utilisant la méthode des éléments finis. L’objectif de la thèse est d’améliorer la performance de la MEF, voire d’en changer les modes d’utilisation en profitant de la grande performance du calcul parallèle sur GPU. En effet, si grâce au GPU, le calcul parvenait à s’effectuer en quasi temps réel, les outils de simulation deviendraient alors des outils de conception intuitifs, qui permettraient par exemple de « sentir » la sensibilité d’un dimensionnement à la modification de paramètres géométriques ou physiques. Un nouveau champ d’utilisation des codes de simulation s’ouvrirait alors. C’est le fil conducteur de ce travail, qui tente, en abordant les différentes phases d’une simulation par la MEF, de les accélérer au maximum, pour rendre l’ensemble quasi instantané. Ainsi dans cette thèse, les phases de maillage, intégration, résolution et exploitation sont abordées successivement. Pour chacune de ces grandes étapes de la simulation d’un dispositif, les méthodes de la littérature sont examinées et de nouvelles approches sont proposées. Les performances atteintes sont analysées et comparées au cout de l’implantation traditionnelle sur CPU ; Les détails d’implantation sont décrits assez finement, car la performance globale des approches sur GPU sont très liés à ces choix. / The physical phenomena in the electrical engineering field are based on Maxwell's equations in which solutions are functions verifying the material properties and satisfying certain boundary conditions on the field. The finite element method (FEM) is the most commonly used method to calculate the solutions of these equations and deduce the magnetic and electric fields.Nowadays, the parallel computing on graphics processors offers a very high computing performance over traditional calculation by CPU. The GPU-accelerated computing makes use of a graphics processing unit (GPU) together with a CPU to accelerate many applications in science and engineering. It enables massively parallelized tasks and thus accelerate the performance by offloading the compute-intensive portions of the application to the GPU while the remainder of the application still runs on the CPU.The thesis deals with the modeling in the magnetic field using the finite element method. The aim of the thesis is to improve the performance of the MEF by taking advantage of the high performance parallel computing on the GPU. Thus if the calculation can be performed in near real-time, the simulation tools would become an intuitive design tool which allow for example to "feel" the sensitivity of a design modification of geometric and physical parameters. A new field of use of simulation codes would open. This is the theme of this work, which tries to accelerate the different phases of a simulation to make the whole almost instantaneous. So in this thesis, the meshing, the numerical integration, the assembly, the resolution and the post processing are discussed respectively. For each phase, the methods in the literature are examined and new approaches are proposed. The performances are analyzed and compared. The implementation details are described as the overall performance of GPU approaches are closely linked to these choices.
746

Approche par la simulation pour la gestion de ressources / Simulation approach for resource management

Poquet, Millian 19 December 2017 (has links)
Les plateformes de calcul se multiplient, grandissent en taille et gagnent encomplexité.De nombreux défis restent à relever pour construire les prochaines générationsde plateformes, mais exploiter cesdites plateformes est également un défi en soi.Des contraintes comme la consommation énergétique, les mouvement de donnéesou la résilience risquent de devenir prépondérantes et de s'ajouter à lacomplexité actuelle de la gestion des plateformes.Les méthodes de gestion de ressources peuvent également évoluer avec laconvergence des différents types de plateformes distribuées.Les gestionnaires de ressources sont des systèmes critiques au cœur desplateformes qui permettent aux utilisateurs d'exploiter les ressources.Les faire évoluer est nécessaire pour exploiter au mieux lesressources en prenant en compte ces nouvelles contraintes.Ce processus d'évolution est risqué et nécessite de nombreuses itérationsqu'il semble peu raisonnable de réaliser in vivo tant les coûts impliquéssont importants.La simulation, beaucoup moins coûteuse, est généralement préférée pourfaire ce type d'études mais pose des questions quant au réalisme des résultatsainsi obtenus.La première contribution de cette thèse est de proposer une méthode desimulation modulaire pour étudier les gestionnaires de ressources et leurévolution --- ainsi que le simulateur résultant nommé Batsim.L'idée principale est de séparer fortement la simulation et les algorithmes deprise de décision.Cela permet une séparation des préoccupations puisque les algorithmes,quels qu'ils soient, peuvent bénéficier d'une simulation validée proposantdifférents niveaux de réalisme.Cette méthode simplifie la mise en production de nouvelles politiquespuisque des codes issus à la fois de gestionnaires de ressources de productionet de prototypes académiques peuvent être étudiés dans le même contexte.La méthode de simulation proposée est illustrée dans la seconde partie de cettethèse, qui s'intéresse à des problèmes de gestion de ressourcesnon clairvoyants mêlant optimisation des performances et de laconsommation énergétique.Différents algorithmes sont d'abord proposés et étudiés afin de respecter unbudget d'énergie pendant une période de temps donnée.Nous étudions ensuite plus généralement les différents compromis réalisablesentre performances et énergie grâce à différentes politiques d'extinction denœuds de calcul. / Computing platforms increasingly grow in power and complexity.Numerous challenges remain to build next generations of platforms,but exploiting the platforms is a challenge per se.Constraints such as energy consumption, data movements and resiliencerisk to initiate breaking points in the way that the platforms aremanaged --- especially with the convergence of the different types ofdistributed platforms.Resource and Jobs Management Systems (RJMSs) are critical middlewaresthat allow users to exploit the resources of such platforms.They must evolve to make the best use of the computing platforms whilecomplying with these new constraints.Each evolution ideally require many iterations, but conducting them in vivois not reasonable due to huge overhead.Simulation is an efficient way to tackle the subsequent problems,but particular caution must be taken when drawing results from simulationas using ill-suited models may lead to invalid results.The first contribution of this thesis is the proposition of a modularsimulation methodology to study RJMSs and their evolution realistically --- andthe related simulator Batsim.The main idea is to strongly separate the simulation from the decision-makingalgorithms.This allows separation of concerns as any algorithm can benefit from a validatedsimulation with multiple levels of realism (features, accuracy of the models).This methodology improves the production launch of new policies since bothacademic prototypes and production RJMSs can be studied in the same context.Batsim is used in the second part of this thesis,which focuses on online and non-clairvoyant resource management policies tosave energy.Several algorithms are first proposed and analyzed to maximize performancesunder an energy budget for a given time period.This thesis then explores more generally possible energy and performancestrade-offs that can be obtained with node shutdown techniques.
747

Characterizing the neurocognitive mechanisms of arithmetic / Caractérisation des mécanismes neurocognitifs de l'arithmétique

Pinheiro Chagas Munhos De Sa Moreira, Pedro 29 November 2017 (has links)
L'arithmétique est une des inventions majeures de l'humanité, mais il nous manque encore une compréhension globale de la façon dont le cerveau calcule les additions et soustractions. J'ai utilisé une nouvelle méthode comportementale basée sur un suivi de trajectoire capable de disséquer la succession des étapes de traitement impliquées dans les calculs arithmétiques. Les résultats sont compatibles avec un modèle de déplacement pas à pas sur une ligne numérique mentale, en commençant par l'opérande le plus grand et en ajoutant ou soustrayant de manière incrémentielle l'opérande le plus petit. Ensuite, j'ai analysé les signaux électrophysiologiques enregistrés à partir du cortex humain pendant que les sujets résolvaient des additions. L'activité globale dans le sillon intrapariétal augmentait au fur et à mesure que les opérandes grossissaient, prouvant son implication dans le calcul et la prise de décision. Étonnamment, les sites dans le gyrus temporal inférieur postérieur ont montré que l’activation initiale diminuait en fonction de la taille du problème, suggérant un engagement dans l'identification précoce de la difficulté de calcul. Enfin, j'ai enregistré des signaux de magnétoencéphalographie pendant que les sujets vérifiaient les additions et soustractions. En appliquant des techniques d'apprentissage automatique, j'ai étudié l'évolution temporelle des codes de représentation des opérandes et fourni une première image complète d'une cascade d'étapes de traitement en cours sous-jacentes au calcul arithmétique. Ainsi, cette dissertation fournit-elle plusieurs contributions sur la façon dont les concepts mathématiques élémentaires sont mis en œuvre dans le cerveau. / Arithmetic is one of the most important cultural inventions of humanity, however we still lack a comprehensive understanding of how the brain computes additions and subtractions. In the first study, I used a novel behavioral method based on trajectory tracking capable of dissecting the succession of processing stages involved in arithmetic computations. Results supported a model whereby single-digit arithmetic is computed by a stepwise displacement on a spatially organized mental number line, starting with the larger operand and incrementally adding or subtracting the smaller operand. In a second study, I analyzed electrophysiological signals recorded from the human cortex while subjects solved addition problems. I found that the overall activity in the intraparietal sulcus increased as the operands got larger, providing evidence for its involvement in arithmetic computation and decision-making. Surprisingly, sites within the posterior inferior temporal gyrus showed an initial burst of activity that decreased as a function of problem-size, suggesting an engagement in the early identification of the calculation difficulty. Lastly, I recorded magnetoencephalography signals while subjects verified additions and subtractions. By applying machine learning techniques, I investigated the temporal evolution of the representational codes of the operands and provided a first comprehensive picture of a cascade of unfolding processing stages underlying arithmetic calculation. Overall, this dissertation provides several contributions to our knowledge about how elementary mathematical concepts are implemented in the brain.
748

Contributions méthodologiques à l'analyse musculo-squelettique de l'humain dans l'objectif d'un compromis précision performance / Methodological contributions to the human musculoskeletal simulation - performance and accuracy tradeoff

Muller, Antoine 26 June 2017 (has links)
L'analyse musculo-squelettique est un outil de plus en plus utilisé dans les domaines d'application tels que l'ergonomie, la rééducation ou le sport. Cette analyse permet une estimation des efforts articulaires et des tensions musculaires mises en jeu au cours du mouvement. Les modèles et méthodes que cette analyse exploite conduisent à des résultats de plus en plus réalistes. Cela a pour conséquence de limiter les performances de ces logiciels : le temps de calcul augmente et il est nécessaire de mettre en place des protocoles ainsi que qu’un post-traitement des données long et complexe pour adapter les modèles au sujet. Enfin, de tels logiciels nécessitent une expertise importante des utilisateurs pour être pleinement opérationnels. Ces différents points limitent dans la plupart des cas l'utilisation de ces logiciels au domaine de la recherche.Dans l'objectif de démocratiser l'utilisation des analyses musculo-squelettiques, cette thèse propose des contributions permettant d’améliorer les performances de telles analyses en conservant un bon niveau de précision, ainsi que des contributions permettant une calibration spécifique au sujet des modèles facile à mettre en œuvre. Tout d'abord, dans un souci de maîtrise complète des outils de l’analyse du mouvement, cette thèse développe une approche globale sur l'ensemble des étapes qui la constitue : les étapes de cinématique, de dynamique et d'estimation des efforts musculaires. Pour chacune de ces étapes, des méthodes de résolution en temps rapide ont été proposées. Une méthode de résolution de la question de la répartition des efforts musculaires utilisant une base de données pré-calculée est notamment largement développée. De plus, un processus complet de calibration utilisant uniquement le matériel disponible dans une salle d'analyse de mouvement classique a été développé, où les données utilisées sont issues de capture de mouvement ainsi que de plateformes de force. / Musculoskeletal analysis becomes popular in applications fields such as ergonomics, rehabilitation or sports. This analysis enables an estimation of joint reaction forces and muscles tensions generated during motion. Models and methods used in such an analysis give more and more accurate results. As a consequence, performances of software are limited: computation time increases, and experimental protocols and associated post-process are long and tedious to define subject-specific models. Finally, such software need a high expertise level to be driven properly.In order to democratize the use of musculoskeletal analysis for a wide range of users, this thesis proposes contributions enabling better performances of such analyses and preserving accuracy, as well as contributions enabling an easy subject-specific model calibration. Firstly, in order to control the whole analysis process, the thesis is developed in a global approach of all the analysis steps: kinematics, dynamics and muscle forces estimation. For all of these steps, quick analysis methods have been proposed. Particularly, a quick muscle force sharing problem resolution method has been proposed, based on interpolated data. Moreover, a complete calibration process, based on classical motion analysis tools available in a biomechanical lab has been developed, based on motion capture and force platform data.
749

De l’interaction des communications et de l’ordonnancement de threads au sein des grappes de machines multi-cœurs / About the interactions between communication and thread scheduling in clusters of multicore machines

Trahay, François 13 November 2009 (has links)
La tendance actuelle des constructeurs pour le calcul scientifique est à l'utilisation de grappes de machines dont les noeuds comportent un nombre de coeurs toujours plus grand. Le modèle basé uniquement sur MPI laisse peu à peu la place à des modèles mélangeant l'utilisation de threads et de MPI. Ce changement de modèle entraîne de nombreuses problématiques car les implémentations MPI n'ont pas été conçues pour supporter les applications multi-threadées. Dans cette thèse, afin de garantir le bon fonctionnement des communications, nous proposons un module logiciel faisant interagir l'ordonnanceur de threads et la bibliothèque de communication. Ce gestionnaire d'entrées/sorties générique prend en charge la détection des événements du réseau et exploite les multiples unités de calcul présentes sur la machine de manière transparente. Grâce à la collaboration étroite avec l'ordonnanceur de threads, le gestionnaire d'entrées/sorties que nous proposons assure un haut niveau de réactivité aux événements du réseau. Nous montrons qu'il est ainsi possible de faire progresser les communications réseau en arrière-plan et donc de recouvrir les communications par du calcul. La parallélisation de la bibliothèque de communication est également facilité par un mécanisme d'exportation de tâches capable d'exploiter les différentes unités de calcul disponible tout en prenant en compte la localité des données. Les gains obtenus sur des tests synthétiques et sur des applications montre que l'interaction entre la bibliothèque de communication et l'ordonnanceur de threads permet de réduire le coût des communications et donc d'améliorer les performances d'une application. / The current trend of constructors for scientific computation is to build clusters whose node include an increasing number of cores.The classical programming model that is only based on MPI is being replaced by hybrid approaches that mix communication and multi-threading. This evolution of the programming model leads to numerous problems since MPI implementations were not designed for multi-threaded applications. In this thesis, in order to guarantee a smooth behavior of communication, we propose a software module that interact with both the threads scheduler and the communication library. This module, by working closely with the thread scheduler, allows to make communication progress in the background and guarantees a high level of reactivity to network events, even when the node is overloaded. We show that this permits to make communication progress in the background and thus to overlap communication and computation. The parallelization of the communication library is also made easier thanks to a task onloading mechanism that is able to exploit the available cores while taking data locality into account. The results we obtain on synthetic application as well as real-life applications show that the interaction between the thread scheduler and the communication library allows to reduce the overhead of communication and thus to improve the application performance.
750

Modèles de programmation et supports exécutifs pour architectures hétérogènes / Programming Models and Runtime Systems for Heterogeneous Architectures

Henry, Sylvain 14 November 2013 (has links)
Le travail réalisé lors de cette thèse s'inscrit dans le cadre du calcul haute performance sur architectures hétérogènes. Pour faciliter l'écriture d'applications exploitant ces architectures et permettre la portabilité des performances, l'utilisation de supports exécutifs automatisant la gestion des certaines tâches (gestion de la mémoire distribuée, ordonnancement des noyaux de calcul) est nécessaire. Une approche bas niveau basée sur le standard OpenCL est proposée ainsi qu'une approche de plus haut niveau basée sur la programmation fonctionnelle parallèle, la seconde permettant de pallier certaines difficultés rencontrées avec la première (notamment l'adaptation de la granularité). / This work takes part in the context of high-performance computing on heterogeneous architectures. Runtime systems are increasingly used to make programming these architectures easier and to ensure performance portability by automatically dealing with some tasks (management of the distributed memory, scheduling of the computational kernels...). We propose a low-level approach based on the OpenCL specification as well as a high-level approach based on parallel functional programming.

Page generated in 0.3054 seconds