Spelling suggestions: "subject:"calcul parallèle"" "subject:"calcul parrallèle""
51 |
Environnements d'exécution pour applications parallèles communiquant par passage de messages pour les systèmes à grande échelle et les grilles de calculCoti, Camille 10 November 2009 (has links) (PDF)
L'environnement d'exécution est un composant clé de l'environnement de programmation et d'exécution d'applications parallèles. Il fournit des services aux processus de l'application parallèle. Parmi ces services, les plus fondamentaux sont la mise en relation des processus entre eux et la transmission des signaux et des entrées-sorties. Cette thèse porte sur l'étude des environnements d'exécution à grande échelle et les services rendus à l'application sur des systèmes de grande taille. La première partie étudie les performances de l'environnement d'exécution à grande échelle et propose une approche centrée sur les topologies pour supporter l'application de manière efficace. La seconde partie étudie un rôle supplémentaire rempli par l'environnement d'exécution dans des systèmes constitué d'un grand nombre de composants avec le support de la tolérance aux défaillances. La troisième et la quatrième partie concernent un type particulier de systèmes à grande échelle avec les grilles de calcul. Ces systèmes présentent des particularités spécifiques à l'utilisation de ressources géographiquement distantes et à l'hétérogénéité de ces ressources. Les problématiques de connectivité sur les grilles de calcul et une extension de l'environnement d'exécution conçue pour y faire face sont présentées dans la troisième partie de cette thèse. La quatrième partie présente une méthode de conception d'applications destinées aux grilles de calcul et des exemples d'applications typiques présentant de bonnes performances.
|
52 |
Modélisation par éléments finis des hétérogénéités à l'échelle granulaire au sein d'agrégats polycristallinsResk, Héba 03 December 2010 (has links) (PDF)
Les matériaux cristallins, notamment métalliques, sont des matériaux hétérogènes. Leurs propriétés macroscopiques sont fondamentalement déterminées par leurs caractéristiques microstructurales. L'étude des mécanismes opérant à l'échelle du grain permet de mieux comprendre et mieux contrôler les caractéristiques des pièces fabriquées afin de réduire leur coût et optimiser leur performance. Cette thèse s'inscrit dans le cadre de la méthode dite "CPFEM'' qui couple la plasticité cristalline à la méthode des Eléments finis (EF). L'objectif de ce travail est d'étudier les hétérogénéités à l'échelle du grain au sein d'agrégats polycristallins soumis à de grandes déformations. Pour ce faire, une représentation explicite de la microstructure est nécessaire. Le travail réalisé, ainsi que ce manuscrit, s'articule autour de deux axes principaux: i) la mise en place d'un cadre numérique robuste adapté à des calculs de microstructure intensifs en grandes déformations; ii) la validation de ce cadre à travers différents cas tests, qui permettent, notamment, d'étudier les hétérogénéités locales. Dans le chapitre 2, le comportement du matériau est modélisé par une loi élastoviscoplastique cristalline, qui ne prend cependant pas en compte le développement d'une sous-structure dans sa formulation. Cette loi est couplée à une formulation EF mixte en vitesse pression. L'approche EF, détaillée dans le chapitre 3, peut être considérée comme le modèle polycristallin idéal vu le respect, au sens numérique faible, de l'équilibre des contraintes et la compatibilité des déformations. Dans le chapitre 4, l'approche utilisée pour construire, représenter et discrétiser un volume polycristallin est détaillée. La microstructure est représentée, soit par des polyèdres de Voronoi, soit par des voxels, si elle est construite à partir de données expérimentales. L'agrégat polycristallin est discrétisé avec une approche "monolithique'', où un seul maillage, non structuré et non-conforme aux interfaces entre les grains, est utilisé. Une approche level set permet alors de décrire l'interface entre les grains de façon implicite et sert de base pour la construction d'un maillage adaptatif anisotrope. Le remaillage, avec un transport approprié des variables du problème, se fait de façon naturelle et automatique si la carte de métrique, associée au maillage, est calculée avant la procédure de remaillage. Dans le chapitre 5, les hétérogénéités inter- et intragranulaire sont appréhendées à travers une étude de la distribution d'une fraction de l'énergie de déformation. Cette fraction est considérée, dans une première approche, comme étant représentative de l'énergie stockée durant la déformation. Une analyse de sensibilité, au degré et au type de maillage utilisé, permet de mettre en évidence l'apport d'une stratégie de maillage anisotrope. Ces données locales sont particulièrement importantes à calculer lors de la déformation d'agrégats polycrystallins si l'objectif est de modéliser le phénomène de recristallisation statique qui suit l'étape de déformation. Un cas test 3D permet d'illustrer le chaînage de la simulation de la déformation et de la recristallisation, toutes deux réalisées dans le même cadre numérique. Dans le chapitre 6, notre approche numérique est, dans un premier temps, validée à l'aide d'un cas test de laminage pour un polycrystal statistiquement représentatif d'une texture expérimentale. Une réduction d'épaisseur de plus de 90 % est réalisée. Le remaillage, dans ce type d'application, s'avère plus que nécessaire. Dans la seconde partie de ce chapitre, une étude approfondie de la microtexture, développée au sein de microstructures virtuelles, est effectuée. Dans ce cas, ces microstructures "digitales'' correspondent à une microstructure réelle dans un sens discret. Les prédictions de désorientations, d'orientations cristallographiques moyennes ainsi que les cartes d'orientation 2D virtuelles, sont comparés à l'expérience à l'échelle de chaque grain, mettant ainsi en évidence les facteurs à l'origine de certaines des différences observées.
|
53 |
Une méthode MultiMaillages MultiPhysiques parallèle pour accélérer les calculs des procédés incrémentauxRamadan, Mohamad 08 October 2010 (has links) (PDF)
L'objectif de notre travail est de réduire le temps de calcul des procédés multiphysiques incrémentaux, tout en conservant avec précision l'histoire du calcul et en prenant en compte l'aspect multiphysique. Notre choix est tombé sur la méthode MultiMaillages MultiPhysiques (MMMP). Le principe de la méthode consiste à utiliser pour chaque physique un Maillage de Calcul qui lui est optimal, et à considérer un Maillage Référence pour le stockage des résultats. Étant donné que l'application principale de notre travail de thèse est le procédé de martelage qui est un procédé couplé thermomécaniquement, on a appliqué la méthode MMMP à ce procédé en considérant 2 maillages : un maillage pour le calcul mécanique et un autre pour le calcul thermique que l'on a aussi utilisé comme Maillage Référence. La particularité du procédé de martelage est que la déformation plastique est localisée dans la zone de contact avec les outils, et à l'extérieure de cette zone la déformation est négligeable. Le maillage Mécanique est généré en se basant sur cette particularité : il est divisé en deux zones, une zone qui a une taille de mailles fine, c'est la zone de déformation (zone de contact avec les outils) et une autre, constituée par le reste du maillage c'est-à-dire là où il ne se passe presque rien ; dans cette zone on a considéré une taille déraffinée égale à deux fois la taille fine. Pour améliorer la qualité du transport qui est fait par la méthode d'interpolation inverse on a utilisé trois techniques : la première consiste à grader la zone de déformation dans le Maillage Mécanique telle qu'elle est dans le Maillage Référence, la deuxième consiste à déraffiner la zone de faible déformation par un déraffinement emboîté par nœuds, c'est à dire en éliminant des nœuds sons ajouter ou bouger les nœuds existants et la troisième concerne les variables élémentaires telles que la déformation généralisée et consiste à ne pas transporter cette variable mais à la recalculer sur le maillage d'arrivée à partir de la vitesse. Le coût élevé du transport est réduit à moins de 1 % du temps total par une technique de transport sans relocalisation qui consiste à faire la localisation du maillage d'arrivée dans le maillage de départ uniquement au premier incrément et utiliser cette localisation pour les autres incréments. Le partitionnement du Maillage Mécanique est fait indépendamment du Maillage Référence, ce qui améliore l'efficacité parallèle de la méthode. L'accélération MMMP est excellente, elle varie entre 4 et 18 en fonction du nombre de degrés de liberté, du nombre d'incréments et de la configuration de calcul. En parallèle elle chute un peu puisque le Maillage Mécanique du calcul Multimaillage a moins de degrés de liberté que le Maillage du calcul Monomaillage, cependant la méthode continue à nous offrir des accélérations même sur un très grand nombre de processeurs.
|
54 |
Un cadre conceptuel pour la programmation par objets des architectures parallèles distribuées : application à l'algèbre linéaireGuidec, Frédéric 02 June 1995 (has links) (PDF)
Les méthodes et les environnements de programmation adaptés aux machines mono-processeur traditionnelles s'avèrent inutilisables avec les machines parallèles à mémoire distribuée, car ils ne permettent pas d'en maîtriser le parallélisme. À ce jour, l'utilisation de ces machines demeure donc très limitée, car les programmeurs sont en général assez réticents à l'idée de devoir y porter manuellement leurs applications. De nombreuses recherches actuelles visent à simplifier le développement des applications parallèles pour ce type de machine. Le travail effectué au cours de cette thèse s'inscrit dans le cadre du développement et de l'expérimentation de l'environnement EPEE (Environnement Parallèle d'exécution de Eiffel). EPEE constitue un cadre conceptuel pour la conception et la mise en oeuvre de composants logiciels parallèles réutilisables à l'aide des mécanismes de la programmation par objets. Nous avons caractérisé les objets pouvant être distribués et exploités en parallèle dans lénvironnement EPEE, et proposé des schémas conceptuels permettant de développer de tels objets en insistant sur les points clés mis en avant dans les techniques modernes de génie logiciel, à savoir la maîtrise de la complexité (résolue par la modularisation, l'encapsulation, l'héritage), et la maintenabilité (corrective et évolutive). Nous avons ensuite appliqué ces schémas conceptuels pour développer une bibliothèque parallèle de démonstration. Cette bibliothèque expérimentale, baptisée Paladin, est dédiée au calcul d'algèbre linéaire sur machines parallèles à mémoire distribuée. Elle est en outre extensible, d'un emploi aisé, performante et portable. Ces caractéristiques confirment la viabilité de l'approche consistant à utiliser les mécanismes de la programmation par objets pour construire des bibliothèques pour machines parallèles.
|
55 |
Modélisation de phénomène électromagnétiques hyperfréquences sur calculateurs parallèlesVollaire, Christian 29 September 1997 (has links) (PDF)
L'objectif de ce travail est le portage efficace, sur différents calculateurs parallèles, d'une formulation permettant la modélisation de phénomènes électromagnétiques hyperfréquences en régime harmonique et en espace libre. Cette démarche découle du besoin accru de modéliser des dispositifs toujours plus grands et plus complexes qui ne peuvent êtrerésolus sur des calculateurs scalaires classiques. Les équations de Maxwell en régime fréquentiel sont discrétisées en 3 dimensions par la méthode des éléments finis couplée à des conditions aux limites absorbantes. Les calculateurs parallèles qui servent de support à l'implantation de la formulation sont à mémoire partagée ou distribuée. Le portage sur un CRAY C98 (mémoire partagée) est faite à partir du code séquentiel. Le parallélisme est introduit par l'adjonction manuelle de directives interprétées à la compilation. Les résultats ainsi obtenus tendent à prouver que la parallélisation des algorithmes séquentiels ont une granulité adaptée à ce type d'architecture. Néanmoins, le type de stockage du système matriciel est modifié afin d'accroître les performances vectorielles. L'utilisation de calculateurs à mémoire distribuée (ferme de stations, CRAY T3E) demande un modification complète des algorithmes de sorte à exploiter au mieux les ressources de ces calculateurs en distribuant le stockage de la matrice éléments finis et en minimisant le nombre de passages de messages. L'expérience acquise montre que le calcul parallèle permet la modélisation de géométries réalistes en 3D mais que l'utilisation de tels supports informatiques requière une bonne adéquation algorithmes - architecture cible. Des exemples de problèmes de diffractions par des objets de grande taille sont exposés. Une application de cette méthode aux problèmes de guide d'ondes ouverts de forte puissance est également décrite. Le calcul du champ lointain calculé à partir du champ proche est en bon accord avec les résultats expérimentaux.
|
56 |
Mésodynamique et rupture des composites 3D C/C sous choc : une stratégie numérique dédiéeSen Gupta, Jayant 17 February 2005 (has links) (PDF)
Le travail est réalisé en collaboration avec le centre d'études de Gramat. Le but est de fournir des outils numériques fiables de prévision de la tenue aux chocs de structures en composites 3D C/C. Pour des sollicitations de quelques microsecondes, une modélisation méso rend bien compte des observations expérimentales. Le traitement numérique d'un tel modèle conduit à des problèmes de taille importante. Nous développons une méthode de sous structuration mixte par interface, itérative, globale en temps et en espace, paramétrée par des directions de recherche qu'il faut optimiser. Les directions de recherche constantes sont peu efficaces. Pour des directions de recherche variables, un algorithme de gradient conjugué est utilisé et optimisé pour réduire le nombre d'itérations. La méthode est validée sur un exemple 1D 1/2. Le cas d'un calcul 3D d'impact plaque/plaque est également traité grâce à l'utilisation du calcul parallèle.
|
57 |
Expérimentation sur les nouvelles architectures : des processeurs multi-cœurs aux grilles de calculVideau, Brice 28 September 2009 (has links) (PDF)
Les besoins en puissance de calcul ne cessent d'augmenter. Pour répondre à ces besoins, de nouvelles architectures sont apparues. Les grilles et grappes de calcul, qui permettent d'agréger la puissance de plusieurs machines et les processeurs multi-cœurs qui permettent d'offrir plus de puissance sans nécessité d'augmenter la fréquence et la consommation énergétique du processeur. Cependant, l'étude de ces nouvelles architectures n'est pas aisée. Pour l'étude des grilles de calcul, nous disposons de plates-formes dédiées. Néanmoins, la conduite d'expérience sur ces plates-formes complexe est une tâche difficile à mettre en œuvre. Dans le cas des processeurs multi-cœurs, leur comportement est mal connu. Dans cette thèse nous proposons deux outils dédiés à l'étude des nouvelles architectures. Le premier, Expo, est un logiciel de conduite d'expérience sur grille dédiée à l'expérimentation. Expo permet d'automatiser en partie la conduite d'une expérience, tout en essayant de garantir son bon déroulement. Expo propose également un langage concis de description d'expérience adapté à la problématique des grilles. Le second outil, PaSTeL, est dédié à l'étude de l'adéquation entre un support exécutif et une architecture. Hautement paramétrable, il permet d'étudier les ultiples facettes d'une solution de parallélisation s'exécutant sur une architecture donnée. Les deux outils ont été validés au cours de leur développement, mais également lors d'une campagne expérimentale visant à étudier le comportement d'un moteur de vol de travail sur différentes architectures multi-cœurs.
|
58 |
Chemistry Inspired Middleware for Flexible Service Composition and ApplicationWang, Chen 28 May 2013 (has links) (PDF)
Les Architectures Orientées Services (SOA) sont adoptées aujourd'hui par de nombreuses entreprises car elles représentent une solution flexible pour la construction d'applications distribuées. Une Application Basée sur des Services (SBA) peut se définir comme un workflow qui coordonne de manière dynamique l'exécution distribuée d'un ensemble de services. Les services peuvent être sélectionnés et intégrés en temps réel en fonction de leur Qualité de Service (QoS), et la composition de services peut être dynamiquement modifiée pour réagir à des défaillances imprévues pendant l'exécution. Les besoins des architectures orientées services présentent des similarités avec la nature: dynamicité, évolutivité, auto-adaptabilité, etc. Ainsi, il n'est pas surprenant que les métaphores inspirées par la nature soient considérées comme des approches appropriées pour la modélisation de tels systèmes. Nous allons plus loin en utilisant le paradigme de programmation chimique comme base de construction d'un middleware. Dans cette thèse, nous présentons un middleware "chimique'' pour l'exécution dynamique et adaptative de SBA. La sélection, l'intégration, la coordination et l'adaptation de services sont modélisées comme une série de réactions chimiques. Tout d'abord, l'instantiation de workflow est exprimée par une série de réactions qui peuvent être effectuées de manière parallèle, distribuée et autonome. Ensuite, nous avons mis en oeuvre trois modèles de coordination pour exécuter une composition de service. Nous montrons que les trois modèles peuvent réagir aux défaillances de type panne franche. Enfin, nous avons évalué et comparé ces modèles au niveau d'efficacité et complexité sur deux workflows. Nous montrons ainsi dans cette thèse que le paradigme chimique possède les qualités nécessaires à l'introduction de la dynamicité et de l'adaptabilité dans la programmation basée sur les services.
|
59 |
Comportement transitoire d'algorithmes distribués et modèles de circuitsNowak, Thomas 05 September 2014 (has links) (PDF)
Le thème global de la thèse est le comportement transitoire de certains systèmes répartis. Les résultats peuvent être divisés en trois groupes : transients de matrices et systèmes max-plus, convergence de systèmes de consensus asymptotique et la modélisation de "glitches" dans des circuits numériques. Pour l'algèbre max-plus, les résultats sont des bornes supérieures sur les transients de matrices et système linéaires max-plus. Elles améliorent strictement les bornes publiées. La thèse inclut une discussion de l'impact des bornes dans des applications. Les preuves utilisent notamment des réductions de chemins. La thèse contient aussi des bornes plus précises pour les transients des indices critiques. Ces bornes sont, en fait, indépendantes des poids spécifiques et ne dépendent que de la structure du graphe de la matrice et son graphe critique. De plus, elles sont des généralisations strictes des bornes booléennes pour des graphes non pondérées; par exemple les bornes de Wielandt ou de Dulmage et Mendelsohn. Quant au consensus asymptotique, la thèse améliore des bornes supérieures sur le taux de convergence et établit de nouveaux résultats sur la convergence dans le cas où les agents n'ont pas nécessairement de confiance en soi, c'est-à-dire qu'ils peuvent ignorer leurs propres valeurs. Ces résultats sont notamment pour des réseaux complètement dynamiques. Elle contient aussi un exemple d'un réseau complètement statique dont le taux de convergence est dans le même ordre que celui d'une grande classe de réseaux dynamiques. La dernière partie de la thèse est sur la propagation de "glitches" (signaux transitoires très courts) dans des circuits numériques. Plus spécifiquement, elle traite des modèles à valeur discrète et temps continu pour des circuits numériques. Ces modèles sont utilisés dans des outils pour la conception de circuits car ils sont beaucoup plus vites que la résolution des équations différentielles. Cependant, comme c'est prouvé dans la thèse, les modèles existants ne prédisent pas correctement l'occurrence de glitches dans le signal sortant d'un circuit. De plus, la thèse contient une proposition d'un nouveau modèle qui ne partage pas les caractéristiques avec les modèles existants qui leur interdisent de prédire correctement l'occurrence de glitches.
|
60 |
Equilibrage de charge dynamique sur plates-formes hiérarchiquesQuintin, Jean-noël 08 December 2011 (has links) (PDF)
La course à l'augmentation de la puissance de calcul qui se déroule depuis de nombreuses années entre les différents producteurs de matériel a depuis quelques années changé de visage: nous assistons en effet désormais à une véritable démocratisation des machines parallèles avec une complexification sans cesse croissante de la structure des processeurs. À terme, il est tout à fait envisageable de voir apparaître pour le grand public des architecture pleinement hétérogènes composées d'un ensemble de cœurs reliés par un réseau sur puce. La parallélisation et l'exécution parallèle d'applications sur les machines à venir soulèvent ainsi de nombreux problèmes. Parmi ceux-ci, nous nous intéressons ici au problème de l'ordonnancement d'un ensemble de tâches sur un ensemble de cœurs, c'est à dire le choix de l'affectation du travail à réaliser sur les ressources disponibles. Parmi les méthodes existantes, on distingue deux types d'algorithmes: en-ligne et hors-ligne. Les algorithmes en-ligne comme le vol de travail présentent l'avantage de fonctionner en l'absence d'informations sur le matériel ou la durée des tâches mais ne permettent généralement pas une gestion efficace des communications. Dans cette thèse, nous nous intéressons à l'ordonnancement de tâches en-ligne sur des plates-formes complexes pour lesquelles le réseau peut, par des problèmes de congestion, limiter les performances. Plus précisément, nous proposons de nouveaux algorithmes d'ordonnancement en-ligne, basés sur le vol de travail, ciblant deux configurations différentes. D'une part, nous considérons des applications pour lesquelles le graphe de dépendance est connu à priori. L'utilisation de cette information nous permet ainsi de limiter les quantités de données transférées et d'obtenir des performances supérieures aux meilleurs algorithmes hors-ligne connus. D'autre part, nous étudions les optimisations possibles lorsque l'algorithme d'ordonnancement connaît la topologie de la plate-forme. Encore une fois, nous montrons qu'il est possible de tirer parti de cette information pour réaliser un gain non-négligeable en performance. Nos travaux permettent ainsi d'étendre le champ d'application des algorithmes d'ordonnancement vers des architectures plus complexes et permettront peut-être une meilleure utilisation des machines de demain.
|
Page generated in 0.0548 seconds