• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 96
  • 39
  • 1
  • Tagged with
  • 232
  • 232
  • 154
  • 143
  • 119
  • 117
  • 99
  • 99
  • 98
  • 95
  • 94
  • 90
  • 49
  • 46
  • 44
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Modélisation numérique du chauffage par induction : approche éléments finis et calcul parallèle

Labbé, Valérie 22 April 2002 (has links) (PDF)
La première étape de ce travail a consisté à établir, développer et valider un modèle performant pour modéliser les procédés de chauffage par induction, que ce soit en préchauffe ou pour des traitements thermiques. Ce procédé est complexe de par sa nature multi-physique et nécessite le couplage entre des modèles :<br/>- électromagnétique, - thermique, - éventuellement thermo-mécanique.<br/>Le choix du modèle électromagnétique est primordial. De nombreuses approximations basées sur des hypothèses plus ou moins fortes existent.<br/>Nous avons seulement utilisé l'approximation des régimes quasi-permanents. Nous avons vu que cette première approximation, qui revient à négliger le phénomène de propagation des ondes, est valable dans la gamme de fréquences utilisée lors des procédés de chauffage par induction, les plus hautes fréquences étant largement inférieures au mégahertz. La propagation des ondes est alors considérée comme instantanée, ce qui au vu de la taille caractéristique des installations (quelques mètres) par rapport à la célérité de la lumière (3.105 m/s) est tout à fait raisonnable.<br/>En revanche, nous avons choisi d'écarter l'approximation harmonique des champs électromagnétiques. Cette approximation découple les évolutions spatiales et temporelles du champ et revient à calculer une amplitude complexe pour le champ électromagnétique à partir d'une équation stationnaire. L'avantage d'une telle approximation est le gain souvent important en temps de calcul. Seulement, on perd une précision importante sur l'évolution temporelle et sur la déformation des champs électromagnétiques lorsqu'il s'agit d'un matériau ferromagnétique. En effet, les harmoniques secondaires ne sont pas prises en compte. Afin de pouvoir représenter les phénomènes physiques le plus réellement possible, le modèle électromagnétique utilisé est dépendant du temps. Néanmoins, afin de n'être pas trop pénalisant en temps de calcul, des compromis entre la précision des calculs et le temps de calcul nécessaire ont été étudiés. Ils se situent au niveau :<br/>- du nombre de calculs électromagnétiques nécessaires pour bien décrire l'évolution temporelle d'une période électromagnétique, du nombre de périodes électromagnétiques nécessaires pour arriver à une solution stable,<br/>du nombre de calculs électromagnétiques complets nécessaires au cours de l'évolution du champ de température.<br/>Ces points importants, ainsi que des échelles de temps caractéristiques électromagnétiques et thermiques présentant un rapport allant de 10-2 à 10-6 ont nécessité la mise en place d'un couplage faible, basé sur la stabilisation du terme de puissance Joule moyennée sur une période électromagnétique ainsi que sur la stabilisation des paramètres électromagnétiques au cours de la montée en température.<br/>La méthode numérique employée, de type éléments finis, est fiable et robuste. Néanmoins, elle nécessite une bonne compréhension des phénomènes physiques électromagnétiques inhérents au procédé. En effet, modéliser un espace ouvert par une méthode éléments finis nécessite la fermeture du domaine et l'imposition de conditions aux limites artificielles. L'utilisateur doit estimer la taille du domaine étudié qui doit être assez grand pour ne pas venir tronquer les lignes du champ électromagnétique et ainsi les modifier. Son avantage par rapport à une méthode mixte est que la matrice du système est creuse et symétrique. La résolution du problème est facilitée et se prête mieux à des développements en calcul parallèle.<br/>Enfin, une nouvelle stratégie a été développée pour simuler le déplacement de l'inducteur : ses propriétés se déplacent virtuellement dans l'air. Cette méthode a donné de très bons résultats et ne nécessite aucun remaillage.<br/>Les perspectives de recherche sont multiples.<br/>Au niveau des données, le modèle accepte actuellement une tension ou une densité de courant source uniforme dans l'inducteur. Suite à un calcul électromagnétique complet, la répartition de courants est connue dans l'inducteur et permet une évaluation de l'intensité réelle circulant dans les spires. Il serait intéressant de mettre au point un outil de transfert des données électrotechniques vers nos paramètres d'entrées.<br/>Un autre point, plus académique, serait d'effectuer des comparaisons pour des matériaux ferromagnétiques entre un modèle harmonique et le nôtre, dépendant en temps. En effet nous avons vu que ces deux modèles donnent des solutions identiques pour des matériaux amagnétiques. Tout l'intérêt de notre modèle dépendant en temps apparaît par son analyse beaucoup plus riche des matériaux non linéaires. Nous avons vu que le signal périodique peut être grandement déformé et ne ressemble alors plus du tout à une sinusoïde. Néanmoins, il n'est pas forcément évident que la puissance Joule, issue du calcul électromagnétique et obtenue par intégration sur une période électromagnétique, soit très différente de celle obtenue par une analyse harmonique. Cette différence serait très intéressante à quantifier.<br/>Enfin des comparaisons entre les méthodes numériques 'tout' éléments finis et mixtes permettraient de quantifier la précision des méthodes suivant les tailles des éléments finis, les tailles du domaine de fermeture, ainsi que les différences en temps de calculs.<br/>Un autre axe de ce travail a consisté à étudier et à implémenter une stratégie de parallélisation du modèle direct et de la procédure d'optimisation. Nous avons commencé par tester des solveurs itératifs préconditionnés sur nos différents modèles de type parabolique. Ceux ci donnant des résultats satisfaisants par rapport notamment à un solveur direct, nous avons pu nous orienter vers une méthode de parallélisation SPMD de type partitionnement de domaine. Cette méthode, simple et efficace, donne de très bons résultats au niveau du modèle direct, avec une bonne efficacité et une bonne scalabilité.<br/>La parallélisation de l'optimisation montre une efficacité convenable sur deux et quatre processeurs mais qui tend à chuter rapidement avec le nombre de processeurs: la scalabilité est relativement moyenne. Ce problème fait apparaître une thématique de recherche intéressante en calcul parallèle appliqué aux méthodes adjointes: améliorer la scalabilité de l'optimisation parallèle en développant une meilleure stratégie d'accès aux données, en rééquilibrant les données stockées et les données à recalculer.<br/>Enfin les perspectives à plus long terme consisteraient à développer un modèle analogue tridimensionnel.<br/>
42

Accélération des calculs pour la simulation du laminage à pas de pèlerin en utilisant la méthode multimaillages

Kpodzo, Koffi Woloe 18 March 2014 (has links) (PDF)
Ce travail vise à accélérer les calculs lors de la simulation numérique du laminage à pas de pèlerin. Pour ce faire, nous nous sommes penchés sur la méthode Multimaillages Multiphysiques Parallèle (MMP) implémentée au sein du code Forge®, et destinée à accélérer les calculs pour des procédés de mise en forme à faible où la déformation est très localisée sur une petite zone du domaine. Dans cette méthode, un maillage localement raffiné dans la zone de déformation et plus grossier sur le reste du domaine est utilisé pour résoudre les équations mécaniques, alors qu'un maillage uniformément raffiné est retenu pour le calcul thermique. Le calcul mécanique étant le plus coûteux, la réduction du nombre de nœuds de son maillage permet d'obtenir des accélérations très importantes. Le maillage de calcul thermique étant uniformément fin, il sert aussi de maillage de stockage pour les champs calculés pour les deux physiques. Pour appliquer la efficacement méthode MMP au laminage à pas de pèlerin, plusieurs aspects importants ont été pris en compte. Tout d'abord la géométrie complexe du tube nécessite le développement d'une technique de déraffinement spéciale afin d'assurer un déraffinement maximal tout en garantissant un maillage convenable pour des calculs. Une technique de déraffinement de maillage utilisant une métrique anisotrope cylindrique a été alors développée. Ensuite, avec la loi de comportement élastoplastique utilisée, des perturbations importantes sont observées sur les contraintes dues aux diffusions numériques engendrées par les différents types de transports des champs P0 (constants du maillage thermique vers le maillage mécanique. Pour y remédier, une approche combinant deux techniques a été développée. La première consiste à effectuer la réactualisation des variables d'état directement sur le maillage mécanique plutôt que sur le maillage thermique et de les transporter ensuite. La deuxième technique est l'utilisation d'un opérateur de transport P0 basé sur un recouvrement super convergent (SPR) et la construction de champs d'ordre supérieur recouvrés. De bonnes accélérations sont alors obtenues sur les cas de laminage à pas de pèlerin étudiés, allant jusqu'à un facteur 6,5 pour la résolution du problème thermomécanique. Les accélérations globales de simulation vont jusqu'à un facteur 3,3 sur un maillage contenant environ 70 000 nœuds en séquentiel. En parallèle les performances chutent légèrement, mais elles restent semblables (2,7).
43

Optimisation semi-infinie sur GPU pour le contrôle corps-complet de robots / GPU-based Semi-Infinite Optimization for Whole-Body Robot Control

Chrétien, Benjamin 08 July 2016 (has links)
Un robot humanoïde est un système complexe doté de nombreux degrés de liberté, et dont le comportement est sujet aux équations non linéaires du mouvement. Par conséquent, la planification de mouvement pour un tel système est une tâche difficile d'un point de vue calculatoire. Dans ce mémoire, nous avons pour objectif de développer une méthode permettant d'utiliser la puissance de calcul des GPUs dans le contexte de la planification de mouvement corps-complet basée sur de l'optimisation. Nous montrons dans un premier temps les propriétés du problème d'optimisation, et des pistes d'étude pour la parallélisation de ce dernier. Ensuite, nous présentons notre approche du calcul de la dynamique, adaptée aux architectures de calcul parallèle. Cela nous permet de proposer une implémentation de notre problème de planification de mouvement sur GPU: contraintes et gradients sont calculés en parallèle, tandis que la résolution du problème même se déroule sur le CPU. Nous proposons en outre une nouvelle paramétrisation des forces de contact adaptée à notre problème d'optimisation. Enfin, nous étudions l'extension de notre travail au contrôle prédictif. / A humanoid robot is a complex system with numerous degrees of freedom, whose behavior is subject to the nonlinear equations of motion. As a result, planning its motion is a difficult task from a computational perspective.In this thesis, we aim at developing a method that can leverage the computing power of GPUs in the context of optimization-based whole-body motion planning. We first exhibit the properties of the optimization problem, and show that several avenues can be exploited in the context of parallel computing. Then, we present our approach of the dynamics computation, suitable for highly-parallel processing architectures. Next, we propose a many-core GPU implementation of the motion planning problem. Our approach computes the constraints and their gradients in parallel, and feeds the result to a nonlinear optimization solver running on the CPU. Because each constraint and its gradient can be evaluated independently for each time interval, we end up with a highly parallelizable problem that can take advantage of GPUs. We also propose a new parametrization of contact forces adapted to our optimization problem. Finally, we investigate the extension of our work to model predictive control.
44

Modélisation par la méthode Lattice Boltzmann de la diffusion de chaleur et d’humidité dans des matériaux biosourcés à partir de leur morphologie 3D / Heat and moisture diffusion in bio-based materials from their 3D morphology using Lattice Boltzmann method

Louërat, Mathilde 19 January 2017 (has links)
Avec la performance thermique croissante des bâtiments, les codes de simulation utilisés en conception requièrent des données de plus en plus précises sur les matériaux de construction. De plus, l’utilisation de matériaux biosourcés qui sont hygroscopiques (leur teneur en eau s’équilibre avec l’air humide ambiant) est en pleine expansion. Leur conductivité thermique et leur diffusivité massique doivent ainsi être caractérisées précisément. Un facteur essentiel affectant ces propriétés est la microstructure des matériaux. Ce travail de thèse propose de prédire les propriétés macroscopiques d’épicéa et de panneaux de fibres de bois (matériaux hétérogènes et anisotropes) à partir de leur morphologie réelle 3D. Celle-ci est obtenue par micro-tomographie synchrotron aux rayons X, outil très performant pour caractériser la structure interne d’un matériau de façon non destructive. Un traitement d’images permet de segmenter les phases solide et gazeuse. La méthode numérique choisie pour modéliser la diffusion de chaleur et de masse est la méthode Lattice Boltzmann car elle est simple à implémenter et à paralléliser et qu’elle peut facilement traiter des morphologies complexes. Les conductivités thermiques et diffusivités massiques équivalentes sont calculées dans trois directions orthogonales pour chaque matériau. Les résultats mettent en évidence l’influence de la structure interne et la forte anisotropie des matériaux étudiés (rapport 2 entre les directions tangentielle et longitudinale du bois en thermique et 30 en massique). La conductivité thermique transversale du panneau léger est de 0,04 W m−1 K−1. / As thermal performance of buildings is increasing, the simulation codes used during design require more accurate construction material data. Moreover, the use of bio-based materials which are hygroscopic (their moisture content balances with the ambient moist air) is booming. Their thermal conductivity and mass diffusivity must therefore be accurately characterized. A key factor affecting these properties is the microstructure of the materials. This work is dedicated to the prediction of macroscopic properties of spruce and fibreboards (heterogeneous and anisotropic materials) from their real 3D morphology. This is obtained by synchrotron X-ray microtomography, a powerful and nondestructive technique to characterize the internal structure of materials. Image processing allows the segmentation of the solid and gaseous phases. To model heat and mass diffusion, we choose the Lattice Boltzmann method because of its simple numerical development, suitability for parallel computing and easy processing of complex morphologies. The equivalent thermal conductivity and mass diffusivity are calculated in three orthogonal directions for each material. The results highlight the influence of the internal structure and the strong anisotropy of the materials studied (ratio of 2 between tangential and longitudinal directions of wood for heat diffusion and of 30 for mass diffusion). The transverse thermal conductivity of the lightweight board is about 0,04 W m−1 K−1.
45

Développement et implémentation parallèle de méthodes d'interaction de configurations sélectionnées / Development and parallel implementation of selected configuration interaction methods

Garniron, Yann 03 December 2018 (has links)
Cette thèse, ayant pour thème les algorithmes de la chimie quantique, s'inscrit dans le cade du changement de paradigme observé depuis une douzaines d'années, dans lequel les méthodes de calcul séquentielles se doivent d'être progressivement remplacées par des méthodes parallèles. En effet, l'augmentation de la fréquences des processeurs se heurtant à des barrières physiques difficilement franchissables, l'augmentation de la puissance de calcul se fait par l'augmentation du nombre d'unités de calcul. Toutefois, là où une augmentation de la fréquence conduisait mécaniquement à une exécution plus rapide d'un code, l'augmentation du nombre de cœurs peut se heurter à des barrières algorithmiques, qui peuvent nécessiter une adaptation ou un changement d'algorithme. Parmi les méthodes développées afin de contourner ce problème, on trouve en particulier celles de type Monte-Carlo (stochastiques), qui sont intrinsèquement "embarrassingly parallel", c'est à dire qu'elles sont par construction constituées d'une multitudes de tâches indépendantes, et de ce fait particulièrement adaptées aux architectures massivement parallèles. Elles ont également l'avantage, dans de nombreux cas, d'être capables de produire un résultat approché pour une fraction du coût calculatoire de l'équivalent déterministe exacte. Lors de cette thèse, des implémentations massivement parallèles de certains algorithmes déterministes de chimie quantique ont été réalisées. Il s'agit des algorithmes suivants : CIPSI, diagonalisation de Davidson, calcul de la perturbation au second ordre, shifted-Bk, et Coupled Cluster Multi Références. Pour certains, une composante stochastique a été introduite en vue d'améliorer leur efficacité. Toutes ces méthodes ont été implémentées sur un modèle de tâches distribuées en TCP, où un processus central distribue des tâches par le réseau et collecte les résultats. En d'autres termes, des nœuds esclaves peuvent être ajoutés au cours du calcul depuis n'importe quelle machine accessible depuis internet. L'efficacité parallèle des algorithmes implémentés dans cette thèse a été étudiée, et le programme a pu donner lieu à de nombreuses applications, notamment pour permettre d'obtenir des énergies de références pour des systèmes moléculaires difficiles. / This thesis, whose topic is quantum chemistry algorithms, is made in the context of the change in paradigm that has been going on for the last decade, in which the usual sequential algorithms are progressively replaced by parallel equivalents. Indeed, the increase in processors' frequency is challenged by physical barriers, so increase in computational power is achieved through increasing the number of cores. However, where an increase of frequency mechanically leads to a faster execution of a code, an increase in number of cores may be challenged by algorithmic barriers, which may require adapting of even changing the algorithm. Among methods developed to circumvent this issue, we find in particular Monte-Carlo methods (stochastic methods), which are intrinsically "embarrassingly parallel", meaning they are by design composed of a large number of independent tasks, and thus, particularly well-adapted to massively parallel architectures. In addition, they often are able to yield an approximate result for just a fraction of the cost of the equivalent deterministic, exact computation. During this thesis, massively parallel implementations of some deterministic quantum chemistry algorithms were realized. Those methods are: CIPSI, Davidson diagonalization, computation of second-order perturbation, shifted-Bk, Multi-Reference Coupled-Cluster. For some of these, a stochastic aspect was introduced in order to improve their efficiency. All of them were implemented on a distributed task model, with a central process distributing tasks and collecting results. In other words, slave nodes can be added during the computation from any location reachable through Internet. The efficiency for the implemented algorithms has been studied, and the code could give way to numerous applications, in particular to obtain reference energies for difficult molecular systems.
46

Etude de la méthode Boltzmann sur Réseau pour les simulations en aéroacoustique.

Marié, Simon 27 February 2008 (has links) (PDF)
Ce travail de thèse s'inscrit dans une problématique visant à étudier numériquement le bruit d'origine aérodynamique généré par les écoulements turbulents autour des véhicules en utilisant la méthode Boltzmann sur Réseau (LBM). Les objectifs de cette thèse sont l'étude des capacités aéroacoustiques de la LBM ainsi que l'élaboration d'un code de calcul tridimensionnel et parallèle.<br />Dans un premier temps, les élements historiques et théoriques de la LBM sont présentés ainsi que le développement permettant de passer de l'équation de Boltzmann aux équations de Navier-Stokes. La construction des modèles à vitesses discrètes est également décrite. Deux modèles basés sur des opérateurs de collision différents sont présentés : le modèle LBM-BGK et le modèle LBM-MRT. Pour l'étude des capacités aéroacoustiques de la LBM, une analyse de von Neumann est réalisée pour les modèles LBM-BGK et LBM-MRT ainsi que pour l'équation de Boltzmann à vitesse discrète (DVBE). Une comparaison avec les schémas Navier-Stokes d'ordre élevé est alors menée. Pour remédier aux instabilités numériques de la méthode Boltzmann sur Réseau intervenant lors de la propagation dans des directions particulières à M>0.1, des filtres sélectifs sont utilisés et leur effet sur la dissipation est étudié.<br />Dans un second temps, le code de calcul L-BEAM est présenté. La structure générale et les différentes techniques de calculs sont décrites. Un algorithme de transition de résolution est développé. La modélisation de la turbulence est abordée et le modèle de Meyers-Sagaut est implémenté dans le code. Enfin, des cas tests numériques sont utilisés pour valider le code et la simulation d'un écoulement turbulent complexe est réalisée.
47

Etude numérique de la plasticité d'agrégats polycristallins

Barbe, Fabrice 22 December 2000 (has links) (PDF)
Cette étude a été effectuée à la suite du développement de lois et d'outils applicables à la modélisation numérique du comportement élastoviscoplastique de matériaux cristallins : des lois de comportement de monocristaux, des lois de transition d'échelle pour les modèles d'homogénéisation, un code de calcul Eléments Finis adapté au calcul parallèle et un programme de génération de microstructures polycristallines 3D. Disposant de ces éléments, nous avons étudié le comportement de polycristaux 3D en petites déformations, aux échelles macroscopique, intergranulaire et intragranulaire.<br />Le milieu polycristallin est décrit par des polyèdres de Voronoï, donnés sous la forme d'un fichier de voxels (L. Decker, D. Jeulin, ENSMP). L'implémentation de la méthode FETI dans le code EF ZéBuLoN (F. Feyel, S. Quilici, ENSMP-ONERA) permet la résolution en parallèle de problèmes à très grand nombre de degrés de liberté. Ainsi nous avons accès à un nombre illimité de réalisations de microstructures et nous pouvons faire figurer suffisamment d'éléments dans un maillage pour que soit possible la description des champs intragranulaires dans un polycristal 3D.<br />Pour commencer nous montrons les spécificités de notre approche par rapport aux travaux de modélisation de la plasticité cristalline. La première partie de l'exploitation des outils a consisté à analyser la sensibilité des résultats aux données de la modélisation (nombre d'éléments, nombre de grains, réalisation de microstructure . . . ) afin d'établir une configuration de calcul valable pour des simulations sur un Volume Elémentaire Représentatif de polycristal isotrope. En seconde partie nous mettons en évidence l'hétérogénéité de comportement inter- et intragranulaire et l'apport de la méthode par rapport à une démarche autocohérente. Ceci est complété par une analyse de l'influence des joints de grain et des conditions aux limites sur la réponse d'un essai en traction simple, aux différentes échelles de la modélisation. Nous caractérisons ainsi un effet local et un effet moyen pour tous les grains, en fonction de la distance à un joint ou à un bord. En annexe sont donnés les résultats de simulations obtenus avec un modèle non-local des milieux de Cosserat (S. Forest, ENSMP) qui ont permis de quantifier un effet de taille de grain sur le comportement effectif de polycristaux.
48

MINI-élément et factorisation incomplètes pour la parallelisation d'un solveur de Stokes 2D : application au forgeage

Perchat, Etienne 11 July 2000 (has links) (PDF)
Nous présentons dans cette contribution les techniques que nous avons mises en oeuvre pour paralléliser un code éléments finis 2D dédié à la simulation du forgeage de pièces axisymétriques. Les modèles de comportement conduisent à résoudre des équations de type Stokes généralisé, exprimées sous forme mixte en vitesse et pression. La discrétisation spatiale est effectuée par une méthode éléments finis originale basée sur une stabilisation du MINI-élément P1+P1<br />Cette approche mène à des systèmes linéaires symétriques non définis positifs que l'on peut inverser avec un solveur itératif. L'introduction de préconditionneurs par factorisation incomplète LDL(0) ainsi que l'optimisation de la résolution non-linéaire nous permet de concurrencer une méthode directe sur un maillage de plus de 3000 noeuds.<br />Une stratégie de parallélisation SPMD couplée avec un solveur itératif avec préconditionnement diagonal aboutit à, un solveur parallèle simple et efficace, ne dépendant ni de la partition ni du nombre de domaines. Différentes stratégies sont envisagées pour développer des factorisations incomplètes parallèles. Un préconditionneur additif de Schwarz est notamment proposé. Celui-ci est construit à partir des matrices locales, complétées sur leur diagonale aux interfaces et avec un coefficient de sur-relaxation. Des résultats sur des simulations industrielles sont donnés par une machine parallèle à mémoire partagée. Ceux-ci, obtenus sur des problèmes 2D et 3D, prouvent la pertinence de notre approche.<br />Les stratégies développées permettent ainsi de réduire de manière significative les temps de simulation de la majorité des cas industriels. Elles permettent aussi d'élargir les champs d'application des codes de calcul à des simulations industrielles très complexes ou avec des maillages de plus de 15000 noeuds en 2D
49

Traitement de contact entre corps déformables et calcul parallèle pour la simulation 3D du forgeage multicorps

Barboza, Josué Aristide Paul 20 February 2004 (has links) (PDF)
La simulation numérique des procédés apparaît, de nos jours, comme un outil indispensable apportant des gains de temps et d'argent importants dans l'industrie. Le logiciel FORGE3® multicorps a été développé dans ce cadre, afin de pouvoir prendre en compte un grand nombre de corps déformables avec des lois de comportement non linéaires de type thermo-élastoviscoplastique en grandes déformations. Nous présentons dans ce mémoire les développements qui ont été réalisés pour prendre en compte et gérer plusieurs corps déformables de rhéologies différentes. Une partie de notre travail a donc consisté en l'implémentation d'un couplage mécanique entre plusieurs corps déformables dont les maillages sont incompatibles sur la zone de contact. Le couplage est basé sur une gestion du contact par la méthode de pénalisation et la technique du maître/esclave. Les équations du frottement sont intégrées aux points de Gauss en négligeant le mouvement relatif des corps. Une nouvelle écriture pseudo-symétrique des conditions de contact est proposée, sans surcontraindre le problème tout en améliorant le traitement du contact. Les méthodes utilisées pour résoudre le problème de contact mécanique entre corps déformables sont utilisées pour résoudre celui du repli de matière. Afin de diminuer le temps de calcul, la parallélisation du problème est abordée en utilisant la stratégie S.P.M.D. (Single Program Multiple Data). Les exemples d'applications proposés montrent la robustesse des développements effectués et offrent de nombreuses perspectives.
50

Déformations élastiques des presses de forgeage et calcul parallèle

Karaseva, Olga 06 December 2005 (has links) (PDF)
Afin d'améliorer la précision de la simulation numérique des procédés de forgeage à froid, un modèle de raideur de presse de forgeage a été introduit dans le logiciel Forge3®. Les déformations de la structure de la presse sont le résultat combiné du système pièce-outillage-presse qui évolue pendant le procédé de forgeage puisque la géométrie de la pièce évolue aussi. Le principe des puissances virtuelles appliqué à ce système conduit aux équations fortement couplées, qui déterminent les champs de vitesses et de pressions dans la pièce forgée et les outils déformables, mais aussi six vitesses additionnelles de corps rigide représentant les déflections de la presse. La prise en compte de ce modèle dans les applications industrielles s'est avérée justifiée et efficace. La comparaison des résultats des simulations avec des données expérimentales a montré un excellent accord, validant ainsi le modèle utilisé et son implémentation dans Forge3®. La deuxième partie de ce travail concerne le calcul parallèle et plus précisément les méthodes de décomposition de domaine. En se basant sur deux méthodes "classiques", la méthode de complément de Schur et la méthode FETI, nous avons proposé une nouvelle approche hybride, a priori mieux adaptée à la formulation mixte en vitesse/pression caractéristique de Forge3®. Les aspects de pré-conditionnement et de traitement des modes rigides ont également été abordés. Les résultats obtenus lors d'une étude des performances de ces méthodes dans le cadre de Forge3® sont prometteurs.

Page generated in 0.4474 seconds