• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 15
  • 5
  • Tagged with
  • 42
  • 42
  • 19
  • 18
  • 15
  • 15
  • 14
  • 14
  • 12
  • 12
  • 12
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Application of Scientific Computing and Statistical Analysis to address Coastal Hazards / Application du Calcul Scientifique et de l'Analyse Statistique à la Gestion du Risque en Milieu Littoral

Chailan, Romain 23 November 2015 (has links)
L'étude et la gestion des risques littoraux sont plébiscitées par notre société au vu des enjeux économiques et écologiques qui y sont impliqués. Ces risques sont généralement réponse à des conditions environnementales extrêmes. L'étude de ces phénomènes physiques repose sur la compréhension de ces conditions rarement (voire nullement) observées.Dans un milieu littoral, la principale source d'énergie physique est véhiculée par les vagues. Cette énergie est responsable des risques littoraux comme l'érosion et la submersion qui évoluent à des échelles de temps différentes (événementielle ou long-terme). Le travail réalisé, situé à l'interface de l'analyse statistique, de la géophysique et de l'informatique, vise à apporter des méthodologies et outils aux décideurs en charge de la gestion de tels risques.En pratique, nous nous intéressons à mettre en place des méthodes qui prennent en compte non seulement un site ponctuel mais traitent les problématiques de façon spatiale. Ce besoin provient de la nature même des phénomènes environnementaux qui sont spatiaux, tels les champs de vagues.L'étude des réalisations extrêmes de ces processus repose sur la disponibilité d'un jeu de données représentatif à la fois dans l'espace et dans le temps, permettant de projeter l'information au-delà de ce qui a déjà été observé. Dans le cas particulier des champs de vagues, nous avons recours à la simulation numérique sur calculateur haute performance (HPC) pour réaliser un tel jeu de données. Le résultat de ce premier travail offre de nombreuses possibilités d'applications.En particulier, nous proposons à partir de ce jeu de données deux méthodologies statistiques qui ont pour but respectif de répondre aux problématiques de risques littoraux long-termes (érosion) et à celles relatives aux risques événementiels (submersion). La première s'appuie sur l'application de modèles stochastiques dit max-stables, particulièrement adapté à l'étude des événements extrêmes. En plus de l'information marginale, ces modèles permettent de prendre en compte la structure de dépendance spatiale des valeurs extrêmes. Nos résultats montrent l'intérêt de cette méthode au devant de la négligence de la dépendance spatiale de ces phénomènes pour le calcul d'indices de risque.La seconde approche est une méthode semi-paramétrique dont le but est de simuler des champs spatio-temporels d'états-de-mer extrêmes. Ces champs, interprétés comme des tempêtes, sont des amplifications contrôlées et bi-variés d'épisodes extrêmes déjà observés. Ils forment donc des tempêtes encore plus extrêmes. Les tempêtes simulées à une intensité contrôlée alimentent des modèles physiques événementiels à la côte, permettant d'aider les décideurs à l'anticipation de ces risques encore non observés.Enfin et depuis la construction de ces scenarii extrêmes, nous abordons la notion de pré-calcul dans le but d'apporter en quasi-temps réel au décideur et en tant de crise une prévision sur le risque littoral.L’ensemble de ce travail s'inscrit dans le cadre d'un besoin industriel d’aide à la modélisation physique : chainage de modèles numériques et statistiques. La dimension industrielle de cette thèse est largement consacrée à la conception et au développement d’un prototype de plateforme de modélisation permettant l’utilisation systématique d’un calculateur HPC pour les simulations et le chainage de modèles de façon générique.Autour de problématiques liées à la gestion du risque littoral, cette thèse démontre l'apport d'un travail de recherche à l'interface de plusieurs disciplines. Elle y répond en conciliant et proposant des méthodes de pointe prenant racine dans chacune de ces disciplines. / Studies and management of coastal hazards are of high concerns in our society, since they engage highly valuable economical and ecological stakes. Coastal hazards are generally responding to extreme environmental conditions. The study of these physical phenomena relies on the understanding of such environmental conditions, which are rarely (or even never) observed.In coastal areas, waves are the main source of energy. This energy is responsible of coastal hazards developed at different time-scales, like the submersion or the erosion.The presented work, taking place at the interface between Statistical Analysis, Geophysics and Computer Sciences, aiming at bringing forward tools and methods serving decision makers in charge of the management of such risks.In practice, the proposed solutions answer to the questionings with a consideration of the space dimension rather than only punctual aspects. This approach is more natural considering that environmental phenomena are generally spatial, as the sea-waves fields.The study of extreme realisations of such processes is based on the availability of a representative data set, both in time and space dimensions, allowing to extrapolating information beyond the actual observations. In particular for sea-waves fields, we use numerical simulation on high performance computational clusters (HPC) to product such a data set. The outcome of this work offers many application possibilities.Most notably, we propose from this data set two statistical methodologies, having respective goals of dealing with littoral hazards long-terms questionings (e.g., erosion) and event-scale questionings (e.g., submersion).The first one is based on the application of stochastic models so-called max-stable models, particularly adapted to the study of extreme values in a spatial context. Indeed, additionally to the marginal information, max-stable models allow to take into account the spatial dependence structures of the observed extreme processes. Our results show the interest of this method against the ones neglecting the spatial dependence of these phenomena for risk indices computation.The second approach is a semi-parametric method aiming at simulating extreme waves space-time processes. Those processes, interpreted as storms, are controlled and bi-variate uplifting of already observed extreme episodes. In other words, we create most severe storms than the one already observed. These processes simulated at a controlled intensity may feed littoral physical models in order to describe a very extreme event in both space and time dimensions. They allow helping decision-makers in the anticipation of hazards not yet observed.Finally and from the construction of these extreme scenarios, we introduce a pre-computing paradigm in the goal of providing the decision-makers with a real-time and accurate information in case of a sudden coastal crisis, without performing any physical simulation.This work fits into a growing industrial demand of modelling help. Most notably a need related to the chaining of numerical and statistical models. Consequently, the industrial dimension of this PhD.~is mostly dedicated to the design and development of a prototype modelling platform. This platform aims at systematically using HPC resources to run simulations and easing the chaining of models.Embracing solutions towards questionings related to the management of coastal hazard, this thesis demonstrates the benefits of a research work placed at the interface between several domains. This thesis answers such questionings by providing end-users with cutting-edge methods stemming from each of those domains.
12

Improving the simulation of IaaS Clouds / Amélioration de simulation de cloud IaaS via l’emploi de méthodes stochastiques

Bertot, Luke 17 June 2019 (has links)
Les clouds sont devenus ces dernières années des plate-formes incontournables dans le monde informatique, car ils permettent de provisionner des ressources à la demande et de ne payer qu’à l’usage. Ceci ouvre la possibilité de concevoir de nouvelles stratégies pour la planification et l’exécution des applications parallèles de type tâches indépendantes ou workflow. Cependant, trouver une stratégie bien adaptée aux contraintes des utilisateurs, que ce soit en termes de coûts et de temps d’exécution, est un problème difficile, pour lequel des outils de prédictions sont nécessaires. Néanmoins, la variabilité inhérente de ces plate-formes complexifient le développement d’un tel outil de prédiction. Notre thèse est que la simulation stochastique est une approche pertinente pour obtenir une prédiction s’accommodant de la variabilité, en produisant une distribution probabiliste des prédictions englobant les résultats réels observables. Pour le démontrer, nous utilisons une méthode de Monte-Carlo permettant de créer des simulations stochastiques par la répétitions de simulations déterministes. Nous montrons que cette méthode associée à certaines distributions d’entrée permettent de modéliser la variabilité d’une plate-forme à travers un unique paramètre. Pour évaluer la méthode proposée, nous comparons les résultats de notre méthode probabiliste à des exécutions réelles d’applications scientifiques. Nos expériences montrent que notre méthode permet de produire des prédictions représentatives des exécutions réelles observées. / The ability to provision resources on the fly and their pay-as-you-go nature has made cloud computing platforms a staple of modern computer infrastructure. Such platforms allow for new scheduling strategies for the execution of computing workloads. Finding a strategy that satisfies a user’s cost and time constraints is a difficult problem that requires a prediction tool. However the inherent variability of these platforms makes building such a tool a complex endeavor. Our thesis is that, by producing probability distributions of possible outcomes, stochastic simulation can be used to produce predictions that account for the variability. To demonstrate this we used Monte Carlo methods to produce a stochastic simulation by repeatedly running deterministic simulations. We show that this method used in conjunction with specific input models can model the variability of a platform using a single parameter. To validate our method we compare our results to real executions of scientific workloads. Our experiments show that our method produces predictions capable of representing theobserved real executions.
13

Un cadre conceptuel pour la programmation par objets des architectures parallèles distribuées : application à l'algèbre linéaire

Guidec, Frédéric 02 June 1995 (has links) (PDF)
Les méthodes et les environnements de programmation adaptés aux machines mono-processeur traditionnelles s'avèrent inutilisables avec les machines parallèles à mémoire distribuée, car ils ne permettent pas d'en maîtriser le parallélisme. À ce jour, l'utilisation de ces machines demeure donc très limitée, car les programmeurs sont en général assez réticents à l'idée de devoir y porter manuellement leurs applications. De nombreuses recherches actuelles visent à simplifier le développement des applications parallèles pour ce type de machine. Le travail effectué au cours de cette thèse s'inscrit dans le cadre du développement et de l'expérimentation de l'environnement EPEE (Environnement Parallèle d'exécution de Eiffel). EPEE constitue un cadre conceptuel pour la conception et la mise en oeuvre de composants logiciels parallèles réutilisables à l'aide des mécanismes de la programmation par objets. Nous avons caractérisé les objets pouvant être distribués et exploités en parallèle dans lénvironnement EPEE, et proposé des schémas conceptuels permettant de développer de tels objets en insistant sur les points clés mis en avant dans les techniques modernes de génie logiciel, à savoir la maîtrise de la complexité (résolue par la modularisation, l'encapsulation, l'héritage), et la maintenabilité (corrective et évolutive). Nous avons ensuite appliqué ces schémas conceptuels pour développer une bibliothèque parallèle de démonstration. Cette bibliothèque expérimentale, baptisée Paladin, est dédiée au calcul d'algèbre linéaire sur machines parallèles à mémoire distribuée. Elle est en outre extensible, d'un emploi aisé, performante et portable. Ces caractéristiques confirment la viabilité de l'approche consistant à utiliser les mécanismes de la programmation par objets pour construire des bibliothèques pour machines parallèles.
14

Algorithmes de résolution de la dynamique du contact avec impact et frottement / Algorithms of resolution of contact dynamics with impact and friction

Haddouni, Mounia 27 May 2015 (has links)
La simulation des systèmes multicorps avec une dynamique non régulière trouve ses applications dans différents domaines comme l'aéronautique, l'automobile, le ferroviaire, la robotique, la réalité virtuelle et même l'industrie horlogère. Ces industries ont de plus en plus d'exigences sur la rapidité ainsi que la précision des méthodes utilisées pour calculer la dynamique. Par conséquent, la recherche dans le domaine de la mécanique non régulière est très active et a pour objectif constant de proposer des algorithmes plus robustes et plus rapides pour calculer la dynamique ainsi que de développer de meilleurs modèles pour le contact avec ou sans frottement. Les méthodes proposées doivent en plus bien gérer les sauts dans la vitesse et l'accélération des systèmes, ces sauts résultent de phénomènes tels que l'impact et le frottement. Dans ce manuscrit, quelques méthodes d'intégration d'équations différentielles algébriques d'index 3, 2 et 1 sont testées sur plusieurs mécanismes industriels avec contraintes unilatérales et bilatérales. Ces méthodes sont ensuite comparées sur la base de la satisfaction des contraintes bilatérales, de l'efficacité numérique et de leur capacité à gérer une dynamique raide. Cette étude a aussi permis d'apporter une réponse claire sur le choix de la méthode d'intégration pour un système mécanique connaissant ses caractéristiques (nombre de contacts, présence de contraintes bilatérales, dynamique raide...). La deuxième partie de ce travail traite certains problèmes qui sont fréquemment rencontrés dans la simulation des systèmes multicorps, notamment: le phénomène d'accumulation des impacts, la résolution du frottement, ainsi que la gestion des sauts qui peuvent être provoqués par la présence de singularités géométriques. Calculer la dynamique dans ces cas est particulièrement difficile dans le cadre des schémas event-driven. La solution proposée est un schéma d'intégration mixte "event-driven/time-stepping" dont le but est d'utiliser les avantages de chacune des familles d'intégration (event-driven et time-stepping). Notre algorithme est ensuite testé sur de nombreux exemples. / The applications of the nonsmooth multibody systems field cover several fields including aeronautics, automotive, robotics, railway, virtual reality and watch industry to cite a few. These industrial applications have ever more stringent requirements on both accuracy and speed of the numerical methods used for the computation of the dynamics. As a consequence, the research in the nonsmooth mechanics domain is very active, to provide better integration methods for the resolution of the equations of motions and to develop better models for the contact problems with and without friction. Since the nonsmooth mechanics framework allows for jumps in the velocity and in the acceleration of the mechanical systems, the resulting algorithms have to handle such non-smoothness. In this PhD, several numerical schemes for the resolution of index-3, index-2 and index-1 DAEs are compared on industrial benchmarks with bilateral and unilateral constraints. The aim is to improve the efficiency of the Ansys Rigid Body solver which is based on an event-driven integration strategy. Points of comparison include the enforcement of the bilateral constraints, time efficiency and handling the stiff dynamics. This study also aimed at having a clear idea on the choice of the most suitable integration method for a given mechanical system knowing its characteristics (number of contacts, presence of bilateral constraints, stiff dynamics...). The second part discusses several issues that frequently occur in the simulation of multibody systems, namely, the problem of accumulation of impacts, the resolution of friction and handling the jumps resulting from the presence of some geometrical singularities. Dealing with such issues is very difficult, especially in the framework of event-driven schemes. In order to handle these problems, a mixed event-driven/time-stepping scheme is developed which takes advantage of both integration families (event-driven and time-stepping). Several examples are used to validate our methodology.
15

Algorithmes de résolution rapide de problèmes mécaniques sur GPU / Fast algorithms solving mechanical problems on GPU

Ballage, Marion 04 July 2017 (has links)
Dans le contexte de l'analyse numérique en calcul de structures, la génération de maillages conformes sur des modèles à géométrie complexe conduit à des tailles de modèles importantes, et amène à imaginer de nouvelles approches éléments finis. Le temps de génération d'un maillage est directement lié à la complexité de la géométrie, augmentant ainsi considérablement le temps de calcul global. Les processeurs graphiques (GPU) offrent de nouvelles opportunités pour le calcul en temps réel. L'architecture grille des GPU a été utilisée afin d'implémenter une méthode éléments finis sur maillage cartésien. Ce maillage est particulièrement adapté à la parallélisation souhaitée par les processeurs graphiques et permet un gain de temps important par rapport à un maillage conforme à la géométrie. Les formulations de la méthode des éléments finis ainsi que de la méthode des éléments finis étendue ont été reprises afin d'être adaptées à notre méthode. La méthode des éléments finis étendus permet de prendre en compte la géométrie et les interfaces à travers un choix adéquat de fonctions d'enrichissement. Cette méthode discrétise par exemple sans mailler explicitement les fissures, et évite surtout de remailler au cours de leur propagation. Des adaptations de cette méthode sont faites afin de ne pas avoir besoin d'un maillage conforme à la géométrie. La géométrie est définie implicitement par une fonction surfaces de niveau, ce qui permet une bonne approximation de la géométrie et des conditions aux limites sans pour autant s'appuyer sur un maillage conforme. La géométrie est représentée par une fonction surfaces de niveau que nous appelons la densité. La densité est supérieure à 0.5 à l'intérieur du domaine de calcul et inférieure à 0.5 à l'extérieur. Cette fonction densité, définie par ses valeurs aux points noeuds du maillage, est interpolée à l'intérieur de chaque élément. Une méthode d'intégration adaptée à cette représentation géométrique est proposée. En effet, certains éléments sont coupés par la fonction surfaces de niveau et l'intégration de la matrice de raideur ne doit se faire que sur la partie pleine de l'élément. La méthode de quadrature de Gauss qui permet d'intégrer des polynômes de manière exacte n'est plus adaptée. Nous proposons d'utiliser une méthode de quadrature avec des points d'intégration répartis sur une grille régulière et dense. L'intégration peut s'avérer coûteuse en temps de calcul, c'est pour cette raison que nous proposons une technique d'apprentissage donnant la matrice élémentaire de rigidité en fonction des valeurs de la fonction surfaces de niveau aux sommets de l'élément considéré. Cette méthode d'apprentissage permet de grandes améliorations du temps de calcul des matrices élémentaires. Les résultats obtenus après analyse par la méthode des éléments finis standard ou par la méthode des éléments finis sur maillage cartésien ont une taille qui peut croître énormément selon la complexité des modèles, ainsi que la précision des schémas de résolution. Dans un contexte de programmation sur processeurs graphiques, où la mémoire est limitée, il est intéressant d'arriver à compresser ces données. Nous nous sommes intéressés à la compression des modèles et des résultats éléments finis par la transformée en ondelettes. La compression mise en place aidera aussi pour les problèmes de stockage en réduisant la taille des fichiers générés, et pour la visualisation des données. / Generating a conformal mesh on complex geometries leads to important model size of structural finite element simulations. The meshing time is directly linked to the geometry complexity and can contribute significantly to the total turnaround time. Graphics processing units (GPUs) are highly parallel programmable processors, delivering real performance gains on computationally complex, large problems. GPUs are used to implement a new finite element method on a Cartesian mesh. A Cartesian mesh is well adapted to the parallelism needed by GPUs and reduces the meshing time to almost zero. The novel method relies on the finite element method and the extended finite element formulation. The extended finite element method was introduced in the field of fracture mechanics. It consists in enriching the basis functions to take care of the geometry and the interface. This method doesn't need a conformal mesh to represent cracks and avoids refining during their propagation. Our method is based on the extended finite element method, with a geometry implicitly defined, wich allows for a good approximation of the geometry and boundary conditions without a conformal mesh.To represent the model on a Cartesian grid, we use a level set representing a density. This density is greater than 0.5 inside the domain and less than 0.5 outside. It takes 0.5 on the boundary. A new integration technique is proposed, adapted to the geometrical representation. For the element cut by the levet set, only the part full of material has to be integrated. The Gauss quadrature is no longer adapted. We introduce a quadrature method with integration points on a cartesian dense grid.In order to reduce the computational effort, a learning approach is then considered to form the elementary stiffness matrices as function of density values on the vertices of the elements. This learning method reduces the stiffness matrices time computation. Results obtained after analysis by finite element method or the novel finite element method can have important storage size, dependant of the model complexity and the resolution scheme exactitude. Due to the limited direct memory of graphics processing units, the data results are compressed. We compress the model and the element finite results with a wavelet transform. The compression will help for storage issue and also for data visualization.
16

développement d'outils d'optimisation pour freefem++ / Optimization tools development for FreeFemm++

Auliac, Sylvain 11 March 2014 (has links)
Cette thèse est consacrée au développement d'outils pour FreeFem++ destinés à faciliter la résolution des problèmes d'optimisation. Ce travail se compose de deux parties principales. La première consiste en la programmation, la validation et l'exploitation d'interfaces permettant l¿utilisation de routines d'optimisation directement dans le logiciel. La seconde comprend le développement de solutions pour le calcul automatisé des dérivées, toujours au sein de FreeFem++, en exploitant les paradigmes de la différentiation automatique. FreeFem++ est un environnement de développement intégré dédié à la résolution numérique d¿équations aux dérivées partielles en dimension 2 et 3. Son langage ergonomique permet à l'utilisateur d'exploiter aisément ses nombreux outils de création de maillages, de résolution de systèmes linéaires, ainsi que ses bibliothèques d'éléments finis, etc... Nous introduisons les nouvelles routines d'optimisation désormais accessibles depuis la bibliothèque de modules du logiciel. En particulier, le logiciel libre d'optimisation sous contraintes IPOPT, qui implémente une méthode de points intérieurs très robuste pour l¿optimisation en grande dimension. Nous appliquons avec succès ces algorithmes à une série de problèmes concrets parmi lesquels la résolution numérique de problèmes de sur- faces minimales, la simulation de condensats de Bose-Einstein, ou encore un problème de positionnement inverse en mécanique des fluides. Une version prototypique de FreeFem++ contenant les outils de différentiation automatique est présentée, après avoir exposé les principes fondamentaux de cette méthode de calcul de dérivées pour le calcul scientifique. / The goal of this Ph.D. thesis was the development of tools for the FreeFem++ software in order to make optimization problems easier to deal with. This has been accomplished following two main directions. Firstly, a set of optimization softwares is interfaced and validated before making use of them. Then, we analyse the field of automatic differentiation as a potential mean of simplification for the users. FreeFem++ is an integrated development environment dedicated to numerically solving partial differential equations. Its high level language allows the user for a comfortable experience while using its mesh generation capabilities, linear system solvers, as well as finite elements capabilities. We describe the newly available optimization features, with a certain emphasis on the open source software IPOPT, which implements a state of the art interior points method for large scale optimization. These optimization tools are then used in a set of quite successful applications, among which minimal surfaces, Bose-Einstein condensate simulation, and an inverse positioning problem in the context of computational fluid dynamics. Finally, after an introduction to the techniques of algorithmic differentiation, we also present an unstable prototype version of FreeFem++ including automatic differentiation features.
17

Analyse et mise en oeuvre de nouveaux algorithmes en méthodes spectrales

Yakoubi, Driss 19 December 2007 (has links) (PDF)
Cette thèse est composée de trois parties. Dans la première, nous considérons un système d'équations Reynolds Averaged Navier-Stokes en 3D, modélisant le couplage de deux fluides turbulents ( par exemple, océan/atmosphére). Nous proposons un schéma numérique, et nous montrons sa convergence vers l'unique solution du modèle.<br />La seconde partie est consacrée à une extension des méthodes spectrales dans des géométries complexes. Cette nouvelle méthode s'appuie sur deux idées: traitement des conditions aux limites de Dirichlet par pénalisation, en suivant la méthode de Nitsche, et une approximation de la géométrie par des pavés, en utilisant une octree (par exemple). <br />Nous donnons des erreurs de projection polyômiale et des estimations a priori. <br />Enfin, la dernière partie est consacrée au calucl scientifique où on a implémenté en C++ et validé cette méthode dans le logiciel FreeFem3d.
18

Contribution à un environnement pour le calcul scientifique et la modélisation : strates et systèmes polynômiaux sur les corps finis

Garreau, Pierre-Olivier 30 September 1994 (has links) (PDF)
Cette thèse concerne le développement et la mise en œuvre d'un environnement pour le calcul scientifique et la modélisation. L'approche retenue est celle d'une décomposition stratifiée des problèmes, ceci dans un double but: marquer le cheminement progressif des étapes de description, allant de l'énoncé informel vers un langage cible en passant par des langages intermédiaires plus ou moins formalisés ; et, d'obtenir une décomposition structurée, modulaire, pour aller du problème initial vers le programme. Dans le but de vérifier la cohérence des descriptions, des schémas de résolutions, des décompositions, nous associons à tout énoncé des conditions logiques dépendant du langage de description. Pour cela, il nous a paru nécessaire d'étudier les formulations logiques décrites par des systèmes polynômiaux sur les corps finis de la forme Z/pZ. L'étude de ces systèmes nous conduisent à traiter le problème de l'élimination des quantificateurs sur un corps fini, le problème du calcul du résultat sur Z/pZ: des algorithmes sont proposés, ainsi qu'une généralisation de la méthode de Dixon-Biard. Le problème de la déduction est aussi abordé. Ces algorithmes nous permettent de vérifier localement la cohérence d'un énoncé mais aussi d'une décomposition de problème. Ceci rend envisageable une vérification globale. Un éditeur de strates sous Grif est présenté
19

Resolution de systemes lineaires de grande taille avec plusieurs seconds membres

Langou, Julien 10 June 2003 (has links) (PDF)
Le point de départ de cette thèse est un problème posé par le groupe électromagnétisme de EADS-CCR : comment résoudre plusieurs systèmes linéaires avec la même matrice mais différents seconds membres ? Pour l'application voulue, les matrices sont complexes, denses et de grande taille. Un problème standard comporte environ quelques millions d'inconnues. Comme de telles matrices ne peuvent être ni calculées, ni stockées dans un processus industriel, l'utilisation d'un produit matrice-vecteur approché est la seule alternative. En l'occurrence, le produit matrice-vecteur est effectué en utilisant la méthode multipôle rapide. Dans ce contexte, le but de cette thèse est d'adapter les méthodes itératives de type Krylov de telle sorte qu'elles traitent efficacement les nombreux seconds membres. Des travaux préliminaires avec un seul second membre ont montré que la méthode GMRES est particulièrement efficace et robuste pour cette application. En conséquence dans cette thèse nous abordons uniquement les variantes de GMRES. Les schémas d'orthogonalisation que nous avons implantés dans GMRES sont des variantes de l'algorithme de Gram-Schmidt. <br /><br />Dans une première partie, nous nous intéressons à l'influence des erreurs d'arrondi dans les algorithmes de Gram-Schmidt. Nos résultats répondent à des questions vieilles de vingt-cinq ans. Nous donnons l'explication théorique de ce qui était communément observé et accepté : <br /><br /> - l'algorithme de Gram-Schmidt modifié génère un ensemble de vecteurs bien conditionné ;<br /> - l'algorithme de Gram-Schmidt itéré deux fois fabrique un ensemble de vecteurs orthonormé.<br /><br />Ces deux propositions reposent sur l'hypothèse que la matrice de départ est "numériquement non singulière" en un sens qui est clairement défini. D'autre part, quand l'algorithme de Gram-Schmidt est itéré avec un critère de réorthogonalisation, nous proposons un nouveau critère. Nous montrons que l'algorithme obtenu est robuste alors que le critère communément utilisé est mis en défaut dans certains cas. Finalement, nous généralisons des résultats standards sur les normes en terme de valeurs singulières pour l'algorithme de Gram-Schmidt modifié. Ceci nous permet de dériver un schéma de réorthogonalisation a posteriori utilisant une matrice de rang faible. Ces résultats ont plusieurs applications directes. Nous en donnons des exemples avec les méthodes de Krylov pour résoudre des problèmes linéaires avec plusieurs seconds membres.<br /><br />Dans la deuxième partie, nous avons implémenté des variantes de la méthode GMRES pour les arithmétiques réelle et complexe, simple et double précisions. Cette implémentation convient pour des ordinateurs classiques, à mémoire partagée ou distribuée. Le code en résultant satisfait aux critères de qualité des librairies standards et son implémentation est largement détaillée. Pour des besoins de simplicité, flexibilité et efficacité, les solveurs utilisent un mécanisme de reverse communication pour les produits matrice-vecteur, les étapes de préconditionnement et les produits scalaires. Différents schémas d'orthogonalisation sont implémentés pour réduire le coût de calcul des produits scalaires, un point particulièrement important pour l'efficacité des méthodes de Krylov dans un environnement parallèle distribué. Le critère d'arrêt implémenté est basé sur l'erreur inverse normalisée. Les variantes disponibles sont GMRES-DR, seed-GMRES et block-GMRES. Ces codes s'ajoutent aux variantes déjà existantes (GMRES, flexible GMRES et SQMR). Un produit matrice-vecteur avec une décomposition LU est utilisé dans GMRES-DR de telle sorte que le stockage des approximations des vecteurs propres se fasse sur les premiers vecteurs de l'espace de Krylov. Un restart implicite et une étape de préconditionnement implicite ont été implémentés dans seed-GMRES. Nous supprimons ainsi un produit matrice-vecteur et une étape de préconditionnement par second membre et par cycle de GMRES. La version de block-GMRES permet à l'utilisateur de sélectionner différents modes de déflation. Pour terminer, des résultats reliant la norme du résidu de GMRES à la plus petite valeur singulière de l'espace construit par la méthode de Krylov ont été généralisés à la méthode block-GMRES.<br /><br />La troisième partie est consacrée à l'amélioration des techniques standards pour la résolution des systèmes linéaires dans le cadre des problèmes électromagnétiques. Après une présentation approfondie du code, nous étudions l'influence de la non-symétrie sur la convergence de l'algorithme SQMR. Nous étudions aussi le comportement de GMRES-DR sur nos problèmes. Ceci correspond à deux méthodes avec un seul second membre, le reste de cette partie concerne les cas comportant plusieurs seconds membres. Tout d'abord, nous examinons en détail les techniques qui permettent d'adapter les méthodes utilisées pour un second membre unique aux cas comportant plusieurs seconds membres. Par exemple, on peut améliorer la qualité du préconditionneur, avoir une stratégie de solution initiale, grouper les opérations de plusieurs résolutions ou encore paralléliser plusieurs résolutions. Dans le contexte du calcul de surface équivalente radar monostatique, nous avons montré que l'espace des seconds membres du problème continu était de dimension finie. La dimension donnée par notre théorie est proche de celle que nous observons en pratique. Cette propriété nous permet de réduire considérablement le nombre de systèmes linéaires à résoudre. Dans ce contexte, une version de la méthode block-GMRES est donnée. Ensuite, nous abordons certains problèmes spécifiques des méthodes seed-GMRES et block-GMRES pour lesquels nous proposons des solutions. Pour finir, des résultats plus prospectifs sont donnés. Plusieurs stratégies pour extraire et ajouter de l'information spectrale d'un cycle de GMRES à l'autre sont proposées et comparées. Puis nous utilisons le fait que la méthode multipôle rapide est un produit matrice-vecteur inexact dont la précision est réglable. Moins précis est le produit matrice-vecteur, plus rapide il est. Nous montrons comment tirer partie de cette propriété en utilisant un schéma relâché (méthode de Krylov inexacte) ou des itérations emboîtées (flexible GMRES). Enfin, le critère d'arrêt basé sur l'erreur inverse normalisée dans le cadre du calcul d'une surface équivalente radar est remis en question.
20

Modélisation numérique de la propagation des ondes acoustiques et élastiques en présence d'interfaces

Lombard, Bruno 04 January 2002 (has links) (PDF)
Cette thèse concerne le traitement numérique des interfaces pour des probèmes de propagation d'ondes dans des fluides parfaits et des solides élastique isotropes. La présence d'interfaces induit trois types de difficultés. Numériquement, on observe une chute de l'ordre de convergence des schémas, et des problèmes de stabilité. Géométriquement, la représentation en « marches d'escalier » conduit à des diffractions parasites. Physiquement, les schémas ne décrivent pas la nature des contacts. Nous résolvons ces trois problèmes via une méthode d'interface (schéma utilisé aux points de calcul voisins des interfaces, imposant à la solution numérique le respect des différentes conditions vérifiées par la solution exacte). L'étude est divisée en trois parties. La première partie débute par un état de l'art sur les méthodes d'interface classiques, comme l' « Immersed Interface Method » IIM), et sur leurs limitations. Les équations de l'acoustique et de l'élastodynamique sont écrites sous forme de systèmes hyperboliques du premier ordre. Différents schémas numériques, de complexité et qualité croissantes, sont présentés (Lax-Wendroff, volumes finis à limiteur de flux, WENO). La deuxième partie commence par le calcul des conditions de saut vérifiées par la solution exacte et par ses dérivées spatiales successives, pour différentes interfaces : fluide-fluide, fluide-solide et solide-solide, en contact parfait ou imparfait (conditions de masse-ressort). Nous proposons alors une nouvelle méthode d'interface, l' « Explicit Simplified Interface Method ». Cette méthode conserve, en présence d'interfaces, des propriétés des schémas en miieu homogène. L'ESIM est de mise en œuvre aisée, s'adapte aux différents schémas, et conduit à un surcoût informatique négligeable. La troisième partie concerne la validtion numérique de la méthode. Les comparaisons de solutions analytiques et de solutions calculées avec l'ESIM permettent de vérifier les propriétés attendues.

Page generated in 0.0595 seconds