• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
521

Définition d'un substrat computationnel bio-inspiré : déclinaison de propriétés de plasticité cérébrale dans les architectures de traitement auto-adaptatif / Design of a bio-inspired computing substrata : hardware plasticity properties for self-adaptive computing architectures

Rodriguez, Laurent 01 December 2015 (has links)
L'augmentation du parallélisme, sur des puces dont la densité d'intégration est en constante croissance, soulève un certain nombre de défis tels que le routage de l'information qui se confronte au problème de "goulot d'étranglement de données", ou la simple difficulté à exploiter un parallélisme massif et grandissant avec les paradigmes de calcul modernes issus pour la plupart, d'un historique séquentiel.Nous nous inscrivons dans une démarche bio-inspirée pour définir un nouveau type d'architecture, basée sur le concept d'auto-adaptation, afin de décharger le concepteur au maximum de cette complexité. Mimant la plasticité cérébrale, cette architecture devient capable de s'adapter sur son environnement interne et externe de manière homéostatique. Il s'inscrit dans la famille du calcul incorporé ("embodied computing") car le substrat de calcul n'est plus pensé comme une boite noire, programmée pour une tâche donnée, mais est façonné par son environnement ainsi que par les applications qu'il supporte.Dans nos travaux, nous proposons un modèle de carte neuronale auto-organisatrice, le DMADSOM (pour Distributed Multiplicative Activity Dependent SOM), basé sur le principe des champs de neurones dynamiques (DNF pour "Dynamic Neural Fields"), pour apporter le concept de plasticité à l'architecture. Ce modèle a pour originalité de s'adapter sur les données de chaque stimulus sans besoin d'un continuum sur les stimuli consécutifs. Ce comportement généralise les cas applicatifs de ce type de réseau car l'activité est toujours calculée selon la théorie des champs neuronaux dynamique. Les réseaux DNFs ne sont pas directement portables sur les technologies matérielles d'aujourd'hui de part leurs forte connectivité. Nous proposons plusieurs solutions à ce problème. La première consiste à minimiser la connectivité et d'obtenir une approximation du comportement du réseau par apprentissage sur les connexions latérales restantes. Cela montre un bon comportement dans certain cas applicatifs. Afin de s'abstraire de ces limitations, partant du constat que lorsqu'un signal se propage de proche en proche sur une topologie en grille, le temps de propagation représente la distance parcourue, nous proposons aussi deux méthodes qui permettent d'émuler, cette fois, l'ensemble de la large connectivité des Neural Fields de manière efficace et proche des technologies matérielles. Le premier substrat calcule les potentiels transmis sur le réseau par itérations successives en laissant les données se propager dans toutes les directions. Il est capable, en un minimum d'itérations, de calculer l'ensemble des potentiels latéraux de la carte grâce à une pondération particulière de l'ensemble des itérations.Le second passe par une représentation à spikes des potentiels qui transitent sur la grille sans cycles et reconstitue l'ensemble des potentiels latéraux au fil des itérations de propagation.Le réseau supporté par ces substrats est capable de caractériser les densités statistiques des données à traiter par l'architecture et de contrôler, de manière distribuée, l'allocation des cellules de calcul. / The increasing degree of parallelism on chip which comes from the always increasing integration density, raises a number of challenges such as routing information that confronts the "bottleneck problem" or the simple difficulty to exploit massive parallelism thanks to modern computing paradigms which derived mostly from a sequential history.In order to discharge the designer of this complexity, we design a new type of bio-inspired self-adaptive architecture. Mimicking brain plasticity, this architecture is able to adapt to its internal and external environment and becomes homeostatic. Belonging to the embodied computing theory, the computing substrate is no longer thought of as a black box, programmed for a given task, but is shaped by its environment and by applications that it supports.In our work, we propose a model of self-organizing neural map, DMADSOM (for Distributed Multiplicative Activity Dependent SOM), based on the principle of dynamic neural fields (DNF for "Dynamic Neural Fields"), to bring the concept of hardware plasticity. This model is able to adapt the data of each stimulus without need of a continuum on consecutive stimuli. This behavior generalizes the case of applications of such networks. The activity remains calculated using the dynamic neural field theory. The DNFs networks are not directly portable onto hardware technology today because of their large connectivity. We propose models that bring solutions to this problem. The first is to minimize connectivity and to approximate the global behavior thanks to a learning rule on the remaining lateral connections. This shows good behavior in some application cases. In order to reach the general case, based on the observation that when a signal travels from place to place on a grid topology, the delay represents the distance, we also propose two methods to emulate the whole wide connectivity of the Neural Field with respect to hardware technology constraints. The first substrate calculates the transmitted potential over the network by iteratively allowing the data to propagate in all directions. It is capable, in a minimum of iterations, to compute the lateral potentials of the map with a particular weighting of all iterations.The second involves a spike representation of the synaptic potential and transmits them on the grid without cycles. This one is hightly customisable and allows a very low complexity while still being capable to compute the lateral potentials.The network supported, by these substrates, is capable of characterizing the statistics densities of the data to be processed by the architecture, and to control in a distributed manner the allocation of computation cells.
522

Résolution triangulaire de systèmes linéaires creux de grande taille dans un contexte parallèle multifrontal et hors-mémoire / Parallel triangular solution in the out-of-core multifrontal approach for solving large sparse linear systems

Slavova, Tzvetomila 28 April 2009 (has links)
Nous nous intéressons à la résolution de systèmes linéaires creux de très grande taille par des méthodes directes de factorisation. Dans ce contexte, la taille de la matrice des facteurs constitue un des facteurs limitants principaux pour l'utilisation de méthodes directes de résolution. Nous supposons donc que la matrice des facteurs est de trop grande taille pour être rangée dans la mémoire principale du multiprocesseur et qu'elle a donc été écrite sur les disques locaux (hors-mémoire : OOC) d'une machine multiprocesseurs durant l'étape de factorisation. Nous nous intéressons à l'étude et au développement de techniques efficaces pour la phase de résolution après une factorization multifrontale creuse. La phase de résolution, souvent négligée dans les travaux sur les méthodes directes de résolution directe creuse, constitue alors un point critique de la performance de nombreuses applications scientifiques, souvent même plus critique que l'étape de factorisation. Cette thèse se compose de deux parties. Dans la première partie nous nous proposons des algorithmes pour améliorer la performance de la résolution hors-mémoire. Dans la deuxième partie nous pousuivons ce travail en montrant comment exploiter la nature creuse des seconds membres pour réduire le volume de données accédées en mémoire. Dans la première partie de cette thèse nous introduisons deux approches de lecture des données sur le disque dur. Nous montrons ensuite que dans un environnement parallèle le séquencement des tâches peut fortement influencer la performance. Nous prouvons qu'un ordonnancement contraint des tâches peut être introduit; qu'il n'introduit pas d'interblocage entre processus et qu'il permet d'améliorer les performances. Nous conduisons nos expériences sur des problèmes industriels de grande taille (plus de 8 Millions d'inconnues) et utilisons une version hors-mémoire d'un code multifrontal creux appelé MUMPS (solveur multifrontal parallèle). Dans la deuxième partie de ce travail nous nous intéressons au cas de seconds membres creux multiples. Ce problème apparaît dans des applications en electromagnétisme et en assimilation de données et résulte du besoin de calculer l'espace propre d'une matrice fortement déficiente, du calcul d'éléments de l'inverse de la matrice associée aux équations normales pour les moindres carrés linéaires ou encore du traitement de matrices fortement réductibles en programmation linéaire. Nous décrivons un algorithme efficace de réduction du volume d'Entrées/Sorties sur le disque lors d'une résolution hors-mémoire. Plus généralement nous montrons comment le caractère creux des seconds -membres peut être exploité pour réduire le nombre d'opérations et le nombre d'accès à la mémoire lors de l'étape de résolution. Le travail présenté dans cette thèse a été partiellement financé par le projet SOLSTICE de l'ANR (ANR-06-CIS6-010). / We consider the solution of very large systems of linear equations with direct multifrontal methods. In this context the size of the factors is an important limitation for the use of sparse direct solvers. We will thus assume that the factors have been written on the local disks of our target multiprocessor machine during parallel factorization. Our main focus is the study and the design of efficient approaches for the forward and backward substitution phases after a sparse multifrontal factorization. These phases involve sparse triangular solution and have often been neglected in previous works on sparse direct factorization. In many applications, however, the time for the solution can be the main bottleneck for the performance. This thesis consists of two parts. The focus of the first part is on optimizing the out-of-core performance of the solution phase. The focus of the second part is to further improve the performance by exploiting the sparsity of the right-hand side vectors. In the first part, we describe and compare two approaches to access data from the hard disk. We then show that in a parallel environment the task scheduling can strongly influence the performance. We prove that a constraint ordering of the tasks is possible; it does not introduce any deadlock and it improves the performance. Experiments on large real test problems (more than 8 million unknowns) using an out-of-core version of a sparse multifrontal code called MUMPS (MUltifrontal Massively Parallel Solver) are used to analyse the behaviour of our algorithms. In the second part, we are interested in applications with sparse multiple right-hand sides, particularly those with single nonzero entries. The motivating applications arise in electromagnetism and data assimilation. In such applications, we need either to compute the null space of a highly rank deficient matrix or to compute entries in the inverse of a matrix associated with the normal equations of linear least-squares problems. We cast both of these problems as linear systems with multiple right-hand side vectors, each containing a single nonzero entry. We describe, implement and comment on efficient algorithms to reduce the input-output cost during an outof- core execution. We show how the sparsity of the right-hand side can be exploited to limit both the number of operations and the amount of data accessed. The work presented in this thesis has been partially supported by SOLSTICE ANR project (ANR-06-CIS6-010).
523

Modélisation Multi-échelles : de l'Electromagnétisme à la Grille / Multi-scale Modeling : from Electromagnetism to Grid

Khalil, Fadi 14 December 2009 (has links)
Les performances des outils numériques de simulation électromagnétique de structures complexes, i.e., échelles multiples, sont souvent limitées par les ressources informatiques disponibles. De nombreux méso-centres, fermes et grilles de calcul, se créent actuellement sur les campus universitaires. Utilisant ces ressources informatiques mutualisées, ce travail de thèse s'attache à évaluer les potentialités du concept de grille de calcul (Grid Computing) pour la simulation électromagnétique de structures multi-échelles. Les outils numériques de simulation électromagnétique n'étant pas conçus pour être utilisés dans un environnement distribué, la première étape consistait donc à les modifier afin de les déployer sur une grille de calcul. Une analyse approfondie a ensuite été menée pour évaluer les performances des outils de simulation ainsi déployés sur l'infrastructure informatique. Des nouvelles approches pour le calcul électromagnétique distribué avec ces outils sont présentées et validées. En particulier, ces approches permettent la réalisation de simulation électromagnétique de structures à échelles multiples en un temps record et avec une souplesse d'utilisation. / The numerical electromagnetic tools for complex structures simulation, i.e. multi-scale, are often limited by available computation resources. Nowadays, Grid computing has emerged as an important new field, based on shared distributed computing resources of Universities and laboratories. Using these shared resources, this study is focusing on grid computing potential for electromagnetic simulation of multi-scale structure. Since the numerical simulations tools codes are not initially written for distributed environment, the first step consists to adapt and deploy them in Grid computing environment. A performance study is then realized in order to evaluate the efficiency of execution on the test-bed infrastructure. New approaches for distributing the electromagnetic computations on the grid are presented and validated. These approaches allow a very remarkable simulation time reduction for multi-scale structures and friendly-user interfaces
524

Solving incompressible Navier-Stokes equations on heterogeneous parallel architectures / Résolution des équations de Navier-Stokes incompressibles sur architectures parallèles hétérogènes

Wang, Yushan 09 April 2015 (has links)
Dans cette thèse, nous présentons notre travail de recherche dans le domaine du calcul haute performance en mécanique des fluides. Avec la demande croissante de simulations à haute résolution, il est devenu important de développer des solveurs numériques pouvant tirer parti des architectures récentes comprenant des processeurs multi-cœurs et des accélérateurs. Nous nous proposons dans cette thèse de développer un solveur efficace pour la résolution sur architectures hétérogènes CPU/GPU des équations de Navier-Stokes (NS) relatives aux écoulements 3D de fluides incompressibles.Tout d'abord nous présentons un aperçu de la mécanique des fluides avec les équations de NS pour fluides incompressibles et nous présentons les méthodes numériques existantes. Nous décrivons ensuite le modèle mathématique, et la méthode numérique choisie qui repose sur une technique de prédiction-projection incrémentale.Nous obtenons une distribution équilibrée de la charge de calcul en utilisant une méthode de décomposition de domaines. Une parallélisation à deux niveaux combinée avec de la vectorisation SIMD est utilisée dans notre implémentation pour exploiter au mieux les capacités des machines multi-cœurs. Des expérimentations numériques sur différentes architectures parallèles montrent que notre solveur NS obtient des performances satisfaisantes et un bon passage à l'échelle.Pour améliorer encore la performance de notre solveur NS, nous intégrons le calcul sur GPU pour accélérer les tâches les plus coûteuses en temps de calcul. Le solveur qui en résulte peut être configuré et exécuté sur diverses architectures hétérogènes en spécifiant le nombre de processus MPI, de threads, et de GPUs.Nous incluons également dans ce manuscrit des résultats de simulations numériques pour des benchmarks conçus à partir de cas tests physiques réels. Les résultats obtenus par notre solveur sont comparés avec des résultats de référence. Notre solveur a vocation à être intégré dans une future bibliothèque de mécanique des fluides pour le calcul sur architectures parallèles CPU/GPU. / In this PhD thesis, we present our research in the domain of high performance software for computational fluid dynamics (CFD). With the increasing demand of high-resolution simulations, there is a need of numerical solvers that can fully take advantage of current manycore accelerated parallel architectures. In this thesis we focus more specifically on developing an efficient parallel solver for 3D incompressible Navier-Stokes (NS) equations on heterogeneous CPU/GPU architectures. We first present an overview of the CFD domain along with the NS equations for incompressible fluid flows and existing numerical methods. We describe the mathematical model and the numerical method that we chose, based on an incremental prediction-projection method.A balanced distribution of the computational workload is obtained by using a domain decomposition method. A two-level parallelization combined with SIMD vectorization is used in our implementation to take advantage of the current distributed multicore machines. Numerical experiments on various parallel architectures show that this solver provides satisfying performance and good scalability.In order to further improve the performance of the NS solver, we integrate GPU computing to accelerate the most time-consuming tasks. The resulting solver can be configured for running on various heterogeneous architectures by specifying explicitly the numbers of MPI processes, threads and GPUs. This thesis manuscript also includes simulation results for two benchmarks designed from real physical cases. The computed solutions are compared with existing reference results. The code developed in this work will be the base for a future CFD library for parallel CPU/GPU computations.
525

Dualité de Schur-Weyl, mouvement brownien sur les groupes de Lie compacts classiques et étude asymptotique de la mesure de Yang-Mills / Schur-Weyl duality, Brownian motion on classical compact Lie groups and asymptotic study of the Yang-Mills measure

Dahlqvist, Antoine 12 February 2014 (has links)
On s'intéresse dans cette thèse à l'étude de variables aléatoires sur les groupes de Lie compacts classiques. On donne une déformation du calcul de Weingarten tel qu'il a été introduit par B. Collins et P. Sniady. On fait une étude asymptotique du mouvement brownien sur les groupes de Lie compacts de grande dimension en obtenant des nouveaux résultats de fluctuations. Deux nouveaux objets, que l'on appelle champ maître gaussien planaire et champ maître orienté planaire, sont introduits pour décrire le comportement asymptotique des mesures de Yang-Mills pour des groupes de structure de grande dimension. / In the following text, we are interested in the study of Lie-groups valued random variables. We give a deformation of the Weingarten calculus introduced by Benoît Collins and Piotr Sniady. We study the asymptotic behavior of Brownian motion on compact Lie groups in high dimensions and obtain new fluctuations results. Two new objects called the planar gaussian master field and the planar oriented master field are introduced here to describe the asymptotic behavior of the Yang-Mills measure as the dimension of the structure group is large.
526

Analyse spectrale et calcul numérique pour l'équation de Boltzmann / Spectral analysis and numerical calculus for the Bomtzmann equation

Jrad, Ibrahim 27 June 2018 (has links)
Dans cette thèse, nous étudions les solutions de l'équation de Boltzmann. Nous nous intéressons au cadre homogène en espace où la solution f(t; x; v) dépend uniquement du temps t et de la vitesse v. Nous considérons des sections efficaces singulières (cas dit non cutoff) dans le cas Maxwellien. Pour l'étude du problème de Cauchy, nous considérons une fluctuation de la solution autour de la distribution Maxwellienne puis une décomposition de cette fluctuation dans la base spectrale associée à l'oscillateur harmonique quantique. Dans un premier temps, nous résolvons numériquement les solutions en utilisant des méthodes de calcul symbolique et la décomposition spectrale des fonctions de Hermite. Nous considérons des conditions initiales régulières et des conditions initiales de type distribution. Ensuite, nous prouvons qu'il n'y a plus de solution globale en temps pour une condition initiale grande et qui change de signe (ce qui ne contredit pas l'existence globale d'une solution faible pour une condition initiale positive - voir par exemple Villani Arch. Rational Mech. Anal 1998). / In this thesis, we study the solutions of the Boltzmann equation. We are interested in the homogeneous framework in which the solution f(t; x; v) depends only on the time t and the velocity v. We consider singular crosssections (non cuto_ case) in the Maxwellian case. For the study of the Cauchy problem, we consider a uctuation of the solution around the Maxwellian distribution then a decomposition of this uctuation in the spectral base associated to the quantum harmonic oscillator At first, we solve numerically the solutions using symbolic computation methods and spectral decomposition of Hermite functions. We consider regular initial data and initial conditions of distribution type. Next, we prove that there is no longer a global solution in time for a large initial condition that changes sign (which does not contradict the global existence of a weak solution for a positive initial condition - see for example Villani Arch. Rational Mech. Anal 1998).
527

Analyse de fiabilité de circuits logiques et de mémoire basés sur dispositif spintronique / Reliability analysis of spintronic device based logic and memory circuits

Wang, You 13 February 2017 (has links)
La jonction tunnel magnétique (JTM) commutée par la couple de transfert de spin (STT) a été considérée comme un candidat prometteur pour la prochaine génération de mémoires non-volatiles et de circuits logiques, car elle fournit une solution pour surmonter le goulet d'étranglement de l'augmentation de puissance statique causée par la mise à l'échelle de la technologie CMOS. Cependant, sa commercialisation est limitée par la fiabilité faible, qui se détériore gravement avec la réduction de la taille du dispositif. Cette thèse porte sur l'étude de la fiabilité des circuits basés sur JTM. Tout d'abord, un modèle compact de JTM incluant les problèmes principaux de fiabilité est proposé et validé par la comparaison avec des données expérimentales. Sur la base de ce modèle précis, la fiabilité des circuits typiques est analysée et une méthodologie d'optimisation de la fiabilité est proposée. Enfin, le comportement de commutation stochastique est utilisé dans certaines nouvelles conceptions d'applications classiques. / Spin transfer torque magnetic tunnel junction (STT-MTJ) has been considered as a promising candidate for next generation of non-volatile memories and logic circuits, because it provides a perfect solution to overcome the bottleneck of increasing static power caused by CMOS technology scaling. However, its commercialization is limited by the poor reliability, which deteriorates severely with device scaling down. This thesis focuses on the reliability investigation of MTJ based non-volatile circuits. Firstly, a compact model of MTJ including main reliability issues is proposed and validated by the comparison with experimental data. Based on this accurate model, the reliability of typical circuits is analyzed and reliability optimization methodology is proposed. Finally, the stochastic switching behavior is utilized in some new designs of conventional applications.
528

Efficacité de détection en tomographie d'émission par positrons: une approche par intelligence artificielle

Michaud, Jean-Baptiste January 2014 (has links)
En Tomographie d'Émission par Positrons (TEP), la course à la résolution spatiale nécessite des détecteurs de plus en plus petits, produisant plus de diffusion Compton avec un impact négatif sur l’efficacité de détection du scanner. Plusieurs phénomènes physiques liés à cette diffusion Compton entachent tout traitement des coïncidences multiples d'une erreur difficile à borner et à compenser, tandis que le nombre élevé de combinaisons de détecteurs complexifie exponentiellement le problème. Cette thèse évalue si les réseaux de neurones constituent une alternative aux solutions existantes, problématiques parce que statistiquement incertaines ou complexes à mettre en œuvre. La thèse réalise une preuve de concept pour traiter les coïncidences triples et les inclure dans le processus de reconstruction, augmentant l'efficacité avec un minimum d'impact sur la qualité des images. L'atteinte des objectifs est validée via différents critères de performance comme le gain d'efficacité, la qualité de l'image et le taux de succès du calcul de la ligne de réponse (LOR), mesurés en priorité sur des données réelles. Des études paramétriques montrent le comportement général de la solution : un réseau entraîné avec une source générique démontre pour le taux d'identification de la LOR une bonne indépendance à la résolution en énergie ainsi qu'à la géométrie des détecteurs, du scanner et de la source, pourvu que l'on ait prétraité au maximum les données pour simplifier la tâche du réseau. Cette indépendance, qui n'existe en général pas dans les solutions existantes, laisse présager d'un meilleur potentiel de généralisation à d'autres scanners. Pour les données réelles du scanner LabPET[indice supérieur TM], la méthode atteint un gain d'efficacité aux alentours de 50%, présente une dégradation de résolution acceptable et réussit à recouvrer le contraste de manière similaire aux images de référence, en plus de fonctionner en temps réel. Enfin, plusieurs améliorations sont anticipées.
529

Modélisation numérique du chauffage par induction : approche éléments finis et calcul parallèle

Labbé, Valérie 22 April 2002 (has links) (PDF)
La première étape de ce travail a consisté à établir, développer et valider un modèle performant pour modéliser les procédés de chauffage par induction, que ce soit en préchauffe ou pour des traitements thermiques. Ce procédé est complexe de par sa nature multi-physique et nécessite le couplage entre des modèles :<br/>- électromagnétique, - thermique, - éventuellement thermo-mécanique.<br/>Le choix du modèle électromagnétique est primordial. De nombreuses approximations basées sur des hypothèses plus ou moins fortes existent.<br/>Nous avons seulement utilisé l'approximation des régimes quasi-permanents. Nous avons vu que cette première approximation, qui revient à négliger le phénomène de propagation des ondes, est valable dans la gamme de fréquences utilisée lors des procédés de chauffage par induction, les plus hautes fréquences étant largement inférieures au mégahertz. La propagation des ondes est alors considérée comme instantanée, ce qui au vu de la taille caractéristique des installations (quelques mètres) par rapport à la célérité de la lumière (3.105 m/s) est tout à fait raisonnable.<br/>En revanche, nous avons choisi d'écarter l'approximation harmonique des champs électromagnétiques. Cette approximation découple les évolutions spatiales et temporelles du champ et revient à calculer une amplitude complexe pour le champ électromagnétique à partir d'une équation stationnaire. L'avantage d'une telle approximation est le gain souvent important en temps de calcul. Seulement, on perd une précision importante sur l'évolution temporelle et sur la déformation des champs électromagnétiques lorsqu'il s'agit d'un matériau ferromagnétique. En effet, les harmoniques secondaires ne sont pas prises en compte. Afin de pouvoir représenter les phénomènes physiques le plus réellement possible, le modèle électromagnétique utilisé est dépendant du temps. Néanmoins, afin de n'être pas trop pénalisant en temps de calcul, des compromis entre la précision des calculs et le temps de calcul nécessaire ont été étudiés. Ils se situent au niveau :<br/>- du nombre de calculs électromagnétiques nécessaires pour bien décrire l'évolution temporelle d'une période électromagnétique, du nombre de périodes électromagnétiques nécessaires pour arriver à une solution stable,<br/>du nombre de calculs électromagnétiques complets nécessaires au cours de l'évolution du champ de température.<br/>Ces points importants, ainsi que des échelles de temps caractéristiques électromagnétiques et thermiques présentant un rapport allant de 10-2 à 10-6 ont nécessité la mise en place d'un couplage faible, basé sur la stabilisation du terme de puissance Joule moyennée sur une période électromagnétique ainsi que sur la stabilisation des paramètres électromagnétiques au cours de la montée en température.<br/>La méthode numérique employée, de type éléments finis, est fiable et robuste. Néanmoins, elle nécessite une bonne compréhension des phénomènes physiques électromagnétiques inhérents au procédé. En effet, modéliser un espace ouvert par une méthode éléments finis nécessite la fermeture du domaine et l'imposition de conditions aux limites artificielles. L'utilisateur doit estimer la taille du domaine étudié qui doit être assez grand pour ne pas venir tronquer les lignes du champ électromagnétique et ainsi les modifier. Son avantage par rapport à une méthode mixte est que la matrice du système est creuse et symétrique. La résolution du problème est facilitée et se prête mieux à des développements en calcul parallèle.<br/>Enfin, une nouvelle stratégie a été développée pour simuler le déplacement de l'inducteur : ses propriétés se déplacent virtuellement dans l'air. Cette méthode a donné de très bons résultats et ne nécessite aucun remaillage.<br/>Les perspectives de recherche sont multiples.<br/>Au niveau des données, le modèle accepte actuellement une tension ou une densité de courant source uniforme dans l'inducteur. Suite à un calcul électromagnétique complet, la répartition de courants est connue dans l'inducteur et permet une évaluation de l'intensité réelle circulant dans les spires. Il serait intéressant de mettre au point un outil de transfert des données électrotechniques vers nos paramètres d'entrées.<br/>Un autre point, plus académique, serait d'effectuer des comparaisons pour des matériaux ferromagnétiques entre un modèle harmonique et le nôtre, dépendant en temps. En effet nous avons vu que ces deux modèles donnent des solutions identiques pour des matériaux amagnétiques. Tout l'intérêt de notre modèle dépendant en temps apparaît par son analyse beaucoup plus riche des matériaux non linéaires. Nous avons vu que le signal périodique peut être grandement déformé et ne ressemble alors plus du tout à une sinusoïde. Néanmoins, il n'est pas forcément évident que la puissance Joule, issue du calcul électromagnétique et obtenue par intégration sur une période électromagnétique, soit très différente de celle obtenue par une analyse harmonique. Cette différence serait très intéressante à quantifier.<br/>Enfin des comparaisons entre les méthodes numériques 'tout' éléments finis et mixtes permettraient de quantifier la précision des méthodes suivant les tailles des éléments finis, les tailles du domaine de fermeture, ainsi que les différences en temps de calculs.<br/>Un autre axe de ce travail a consisté à étudier et à implémenter une stratégie de parallélisation du modèle direct et de la procédure d'optimisation. Nous avons commencé par tester des solveurs itératifs préconditionnés sur nos différents modèles de type parabolique. Ceux ci donnant des résultats satisfaisants par rapport notamment à un solveur direct, nous avons pu nous orienter vers une méthode de parallélisation SPMD de type partitionnement de domaine. Cette méthode, simple et efficace, donne de très bons résultats au niveau du modèle direct, avec une bonne efficacité et une bonne scalabilité.<br/>La parallélisation de l'optimisation montre une efficacité convenable sur deux et quatre processeurs mais qui tend à chuter rapidement avec le nombre de processeurs: la scalabilité est relativement moyenne. Ce problème fait apparaître une thématique de recherche intéressante en calcul parallèle appliqué aux méthodes adjointes: améliorer la scalabilité de l'optimisation parallèle en développant une meilleure stratégie d'accès aux données, en rééquilibrant les données stockées et les données à recalculer.<br/>Enfin les perspectives à plus long terme consisteraient à développer un modèle analogue tridimensionnel.<br/>
530

Simulation numérique par éléments finis des grandes déformations des sols : application à la scarification

Renon, Nicolas 23 January 2002 (has links) (PDF)
Le déminage mécanique consiste à scarifier le sol avec une " charrue ", outil formé d'une lame en V munie de plusieurs dents, poussée par un engin : les dents déstructurent le sol et le font remonter devant la lame qui l'évacue sur le côté avec les mines qu'il contient. L'objectif de nos travaux est de mettre en œuvre la simulation numérique par éléments finis du problème fortement non linéaire issu de la modélisation de la scarification du sol. Le code d'éléments finis implicite Forge3®, dédié à la mise en forme des métaux, a été choisi comme support numérique. Il permet de prendre en compte les grandes déformations, en particulier à l'aide de son remaillage automatique. Nous avons dans un premier temps implanté dans ce code deux modèles élastoplastiques de comportement, l'un incompressible réservé aux sols fins saturés, purement cohésifs, l'autre compressible, fondé sur la notion d'état critique, pour les matériaux purement frottants ou cohésifs et frottants. Ces modèles adoucissants sont intégrés par un schéma de retour radial généralisé, au sein d'une formulation implicite du problème aux limites. Nous montrons que la matrice de raideur est non symétrique dans le cas compressible et que la symétrisation du système ne conduit pas à une approche robuste. Nous avons donc importé et testé un solveur itératif non-symétrique : Bi-CGSTAB. Nous avons validé la programmation de ces modèles sur des essais triaxiaux. Pour les comportements adoucissants, on constate des oscillations dans la relation contrainte/déformation passé le pic de contrainte. Ces difficultés numériques sont traitées par linéarisation et régularisation. Dans un deuxième temps, nous avons mis en œuvre des simulations de scarification pour différents niveaux de complexité : une dent seule, une dent + une tranche de lame, plusieurs dents, en faisant suffisamment avancer l'outil pour atteindre le régime stationnaire ; cela se révèle d'autant plus long que l'outil est large, ce qui nous amène au calcul très intensif. L'influence de paramètres géométriques comme l'inclinaison de la dent ou l'angle d'étrave du système a été mise en évidence, elle est qualitativement conforme aux observations expérimentales. L'étude de l'influence des paramètres des modèles de comportement montre la prépondérance de ceux liés à l'état critique, i.e. aux propriétés mécaniques après de grandes déformations. Enfin nous avons validé qualitativement le code en termes de modes d'écoulements et de répartition des efforts pour des outils multi-dents. La comparaison quantitative des efforts reste à affiner en revenant sur le comportement choisi et son implémentation.

Page generated in 0.0379 seconds