• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 148
  • 87
  • 32
  • 14
  • 7
  • 4
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 325
  • 325
  • 105
  • 38
  • 35
  • 35
  • 33
  • 33
  • 33
  • 31
  • 30
  • 27
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Modélisation de la rupture 3D des grains polyédriques par éléments discrets / Modelling 3D breakage of polyhedral grains using the discrete elements method

Nader, François 05 October 2017 (has links)
Les structures en enrochements sont parmi les ouvrages les plus usuels de génie civil (barrages, murs de soutènement,. . . ). Des tassements importants peuvent apparaître tout au long de leur durée de vie et sont principalement dus à la rupture des blocs rocheux. Cette thèse propose un modèle numérique permettant de simuler le comportement de matériaux granulaires présentant des ruptures de grains. Afin de prendre en compte la nature discontinue de ces milieux, la méthode des éléments discrets est utilisée. La modélisation adoptée est de type "Non-Smooth Contact Dynamics", où les grains et particules sont supposés rigides. Afin de générer des blocs ayant des formes complexes, un modèle de grain 3D est proposé. Ce modèle de grain est ensuite discrétisé en sous-éléments de forme tétraédrique liés par des liaisons cohésives afin de pouvoir représenter la rupture. Un critère de rupture de Mohr-Coulomb est utilisé. Le modèle est implémenté sur la plateforme logicielle LMGC90. Le modèle est d’abord éprouvé lors de simulations d’écrasement de blocs cassables entre deux plaques. Plusieurs paramètres contrôlant la résistance du grain sont étudiés : cohésion intergranulaire, taille, discrétisation, forme et orientation du grain. L’effet d’échelle observé sur ce type de matériau est vérifié. Le modèle est ensuite testé lors de simulations numériques de compression œdométrique d’enrochements. L’effet des paramètres du modèle et de l’assemblage du milieu granulaire est également étudié. Les simulations œdométriques sont confrontées à des résultats expérimentaux et présentent une bonne concordance. Enfin, des expérimentations numériques sont menées afin d’étudier les énergies mises en jeu dans ces essais. L’énergie de création de surface est estimée pour ce type de matériau. Les résultats sont proches des données de la littérature. / Rockfill structures are very popular among civil engineering structures (dams, retaining walls, . . . ). Important settlements can take place during the lifetime of these structures, settlements mainly caused by the breakage of rockfill grains. This thesis proposes a numerical model that allows the simulation of the behavior of granular materials exhibiting grain breakage. To take into account the discrete nature of these media, the discrete element method is chosen. The adopted strategy is the Non-Smooth Contact Dynamics method, where grains are considered to be rigid. To generate blocks having complex shapes, a 3D grain model is suggested. This grain model is then discretized into tetrahedral subgrains, joined together using cohesive bonds so that breakage can be simulated. A Mohr-Coulomb failure criterion is used for the cohesive bonds. The model is implemented into the LMGC90 software platform. At first, the model is tested in single grain crushing simulations between two plates. Multiple parameters controling the strength of the grain are studied : the intra-granular cohesion, the size, the discretization and the orientation of the grain. The scale effect that characterizes this type of material is verified. Then the model is tested in numerical simulations of œdometric compression of rockfill. The influence of the parameters of the model and of those of the granular medium are studied. The results of œdometric simulations are compared to experimental results, and present a good agreement. Lastly, numerical experimentations are conducted in order to study the energies that are brought into play in the simulations. The surface creation energy is estimated for this type of material. Results are close to the data provided in the literature.
312

Modélisation et implémentation de parallélisme implicite pour les simulations scientifiques basées sur des maillages / Model and implementation of implicit parallélism for mesh-based scientific simulations

Coullon, Hélène 29 September 2014 (has links)
Le calcul scientifique parallèle est un domaine en plein essor qui permet à la fois d’augmenter la vitesse des longs traitements, de traiter des problèmes de taille plus importante ou encore des problèmes plus précis. Ce domaine permet donc d’aller plus loin dans les calculs scientifiques, d’obtenir des résultats plus pertinents, car plus précis, ou d’étudier des problèmes plus volumineux qu’auparavant. Dans le monde plus particulier de la simulation numérique scientifique, la résolution d’équations aux dérivées partielles (EDP) est un calcul particulièrement demandeur de ressources parallèles. Si les ressources matérielles permettant le calcul parallèle sont de plus en plus présentes et disponibles pour les scientifiques, à l’inverse leur utilisation et la programmation parallèle se démocratisent difficilement. Pour cette raison, des modèles de programmation parallèle, des outils de développement et même des langages de programmation parallèle ont vu le jour et visent à simplifier l’utilisation de ces machines. Il est toutefois difficile, dans ce domaine dit du “parallélisme implicite”, de trouver le niveau d’abstraction idéal pour les scientifiques, tout en réduisant l’effort de programmation. Ce travail de thèse propose tout d’abord un modèle permettant de mettre en oeuvre des solutions de parallélisme implicite pour les simulations numériques et la résolution d’EDP. Ce modèle est appelé “Structured Implicit Parallelism for scientific SIMulations” (SIPSim), et propose une vision au croisement de plusieurs types d’abstraction, en tentant de conserver les avantages de chaque vision. Une première implémentation de ce modèle, sous la forme d’une librairie C++ appelée SkelGIS, est proposée pour les maillages cartésiens à deux dimensions. Par la suite, SkelGIS, et donc l’implémentation du modèle, est étendue à des simulations numériques sur les réseaux (permettant l’application de simulations représentant plusieurs phénomènes physiques). Les performances de ces deux implémentations sont évaluées et analysées sur des cas d’application réels et complexes et démontrent qu’il est possible d’obtenir de bonnes performances en implémentant le modèle SIPSim. / Parallel scientific computations is an expanding domain of computer science which increases the speed of calculations and offers a way to deal with heavier or more accurate calculations. Thus, the interest of scientific computations increases, with more precised results and bigger physical domains to study. In the particular case of scientific numerical simulations, solving partial differential equations (PDEs) is an especially heavy calculation and a perfect applicant to parallel computations. On one hand, it is more and more easy to get an access to very powerfull parallel machines and clusters, but on the other hand parallel programming is hard to democratize, and most scientists are not able to use these machines. As a result, high level programming models, framework, libraries, languages etc. have been proposed to hide technical details of parallel programming. However, in this “implicit parallelism” field, it is difficult to find the good abstraction level while keeping a low programming effort. This thesis proposes a model to write implicit parallelism solutions for numerical simulations such as mesh-based PDEs computations. This model is called “Structured Implicit Parallelism for scientific SIMulations” (SIPSim), and proposes an approach at the crossroads of existing solutions, taking advantage of each one. A first implementation of this model is proposed, as a C++ library called SkelGIS, for two dimensional Cartesian meshes. A second implementation of the model, and an extension of SkelGIS, proposes an implicit parallelism solution for network-simulations (which deals with simulations with multiple physical phenomenons), and is studied in details. A performance analysis of both these implementations is given on real case simulations, and it demonstrates that the SIPSim model can be implemented efficiently.
313

Contrôle de la dynamique de la leucémie myéloïde chronique par Imatinib / Control of the dynamics of chronic myeloid leukemia by Imatinib

Benosman, Chahrazed 18 November 2010 (has links)
Dans ce travail de recherche, nous sommes intéresses par la modélisation de l'hématopoïèse. Les cellules souches hématopoïétiques (CSH) sont des cellules indifférenciées de la moelle osseuse, possédant la capacité de se renouveler et de se différencier (pour la production des globules rouges, globules blancs et les plaquettes). Le processus de l'hématopoïèse souvent révèle des irrégularités qui causent les maladies hématologiques. En modélisant la leucémie myéloide chronique (LMC), une maladie hématologique fréquente, nous représentons l'hématopoïèse des cellules normales et cancéreuses par un système d'équations différentielles ordinaires (EDO). L'homéostasie des cellules normales et différente de l'homéostasie des cellules cancéreuses, et dépend de quelques lignées des cellules normales et cancéreuses. Nous analysons la dynamique globale du modèle pour obtenir les conditions de régénération de l'hématopoïèse ou bien la persistance de la LMC. Nous démontrons aussi que la coexistence des cellules normales et cancéreuses ne peut avoir lieu pour longtemps. Imatinib est un traitement de base de la LMC, avec un dosage variant de 400 à 1000 mg par jour. Certains patients présentent des réponses différentes à la thérapie, pouvant être hématologique, cytogénétique et moléculaire. La thérapie échoue dans deux cas: le patient demande un temps plus long pour réagir, alors il s'agit d'une réponse suboptimale; ou bien le patient résiste après une bonne réponse initiale. Pour déterminer le dosage optimal, nécessaire à la réduction des cellules cancéreuses, nous représentons les effets de la thérapie par un problème de contrôle optimal. Notre but est de minimiser le cout du traitement et le nombre des cellules cancéreuses. La réponse suboptimale, la résistance et le rétablissement sont alors obtenus suivant l'influence de l'imatinib sur les taux de division et de mortalité des cellules cancéreuses. Nous étudions par ailleurs l'hématopoïèse selon un modèle structuré en age, décrivant l'évolution des CSH normales et cancéreuses. Nous démontrons que le taux de division des CSH cancéreuses joue un rôle important dans la détermination du contrôle optimal. En contrôlant la croissance des cellules normales et cancéreuses avec compétition inter spécifique, nous démontrons que le dosage optimal dépend de l'homéostasie des CSH cancéreuses. / Modelling hematopoiesis represents a feature of our research. Hematopoietic stem cells (HSC) are undifferentiated cells, located in bone marrow, with unique abilities of self-renewal and differentiation (production of white cells, red blood cells and platelets).The process of hematopoiesis often exhibits abnormalities causing hematological diseases. In modelling Chronic Myeloid Leukemia (CML), a frequent hematological disease, we represent hematopoiesis of normal and leukemic cells by means of ordinary differential equations (ODE). Homeostasis of normal and leukemic cells are supposed to be different and depend on some lines of normal and leukemic HSC. We analyze the global dynamics of the model to obtain the conditions for regeneration of hematopoiesis and persistence of CML. We prove as well that normal and leukemic cells can not coexist for a long time. Imatinib is the main treatment of CML, with posology varying from 400 to 1000 mg per day. Some affected individuals respond to therapy with various levels being hematologic, cytogenetic and molecular. Therapy fails in two cases: the patient takes a long time to react, then suboptimal response occurs; or the patient resists after an initial response. Determining the optimal dosage required to reduce leukemic cells is another challenge. We approach therapy effects as an optimal control problem to minimize the cost of treatment and the level of leukemic cells. Suboptimal response, resistance and recovery forms are obtained through the influence of imatinib onto the division and mortality rates of leukemic cells. Hematopoiesis can be investigated according to age of cells. An age-structured system, describing the evolution of normal and leukemic HSC shows that the division rate of leukemic HSC plays a crucial role when determining the optimal control. When controlling the growth of cells under interspecific competition within normal and leukemic HSC, we prove that optimal dosage is related to homeostasis of leukemic HSC.
314

Modélisation mathématique multi-échelle des hétérogénéités structurelles en électrophysiologie cardiaque / Multiscale mathematical modelling of structural heterogeneities in cardiac electrophysiology

Davidović, Andjela 09 December 2016 (has links)
Dans cette thèse, nous avons abordé deux problèmes de modélisation mathématique pour la propagation des signaux électriques cardiaques : la propagation à l’échelle tissulaire en présence d’hétérogénéités et la propagation à l’échelle cellulaire avec des jonctions communicantes non linéaires. Inclusions diffusives. Le modèle standard utilisé en électrocardiologie est le modèle bidomaine. Il est déduit par homogénéisation des propriétés microscopiques du tissu. Pour cela, on suppose que les myocytes électriquement actifs sont uniformément répartis dans le coeur. Bien que ce soit une hypothèse raisonnable pour des coeurs sains, ce n’est plus vrai dans certains cas pathologiques où des changements importants dans la structure tissulaire se produisent. C’est le cas, par exemple des maladies cardiaques ischémiques, rhumatismales et inflammatoires, de l’hypertrophie ou de l’infarctus. Ces hétérogénéités tissulaires sont souvent prises en compte à l’aide d’un ajustement ad hoc des paramètres du modèle. Le premier objectif de cette thèse consistait à généraliser les équations du modèle bidomaine au cas des pathologies cardiaques structurelles.Nous avons supposé une alternance périodique d’éléments de tissus sains (modèle bidomaine) et modifiées (inclusions diffusives). La simulation numérique directe d’un tel modèle nécessite une discrétisation très fine, et entraîne un coût de calcul élevé. Pour éviter cela, nous avons construit un modèle homogénéisé à l’échelle macroscopique en utilisant une analyse à deux échelles. Nous avons retrouvé un modèle de type bidomaine avec des coefficients de conductivité modifiés, dits effectifs. En complément, nous avons effectué une vérification numérique de la convergence du modèle microscopique vers celui homogénéisé, dans une situation bidimensionnelle.Dans la deuxième partie, nous avons quantifié les effets de différentes formes d’inclusions diffusives sur les coefficients de conductivité effectifs et leur anisotropie en 2D et 3D. De plus, nous avons effectué des simulations sur des domaines représentant des morceaux de tissu 2D avec ces coefficients de conductivité modifiés. Nous avons observé des changements de la vitesse de propagation et de la forme du front de l’onde de dépolarisation. Dans la troisième partie, nous avons simulé le modèle homogénéisé en 3D, à partir d’images par résonance magnétique (IRM) à haute résolution d’un coeur de rat. Nous avons évalué les propriétés structurelles du tissu en utilisant des outils d’analyse d’image.Nous avons ensuite utilisés ces évaluations pour construire les paramètres dans le modèle homogénéisé. Jonctions communicantes non linéaires. Dans la dernière partie de cette thèse, nous avons étudié les effets du comportement non linéaires des jonctions communicantes sur la propagation du signal à l’échelle cellulaire. Dans les modèles existants, les jonctions communicantes sont supposées avoir un comportement linéaire, lorsqu’elles sont modélisées.Cependant les données provenant des expériences montrent que ceux-ci ont un comportement non linéaire dépendant du temps et de la différence de potentiel entre cellules voisines. D’abord, nous avons présenté un modèle non linéaire 0D du courant dans les jonctions communicantes. Ensuite, nous avons recalé le modèle sur les données expérimentales.Enfin, nous avons proposé un modèle mathématique 2D qui décrit l’interaction électrique des myocytes cardiaques à l’échelle cellulaire. Ce modèle utilise le courant dans les jonctions communicantes comme une liaison directe entre des cellules adjacentes. / In this thesis we addressed two problems in mathematical modelling of propagation of electrical signals in the heart: tissue scale propagation with presence of tissue heterogeneities and cell scale propagation with non-linear gap junctions. Diffusive inclusions. The standard model used in cardiac electrophysiology is the bidomain model. It is an averaged model derived from the microscopic properties of the tissue.The bidomain model assumes that the electrically active myocytes are present uniformly everywhere in the heart. While this is a reasonable assumption for healthy hearts, it fails insome pathological cases where significant changes in the tissue structure occur, for examplein ischaemic and rheumatic heart disease, inflammation, hypertrophy, or infarction. These tissue heterogeneities are often taken into account through an ad-hoc tuning of model parameters. The first aim of this thesis consisted in generalizing the bidomain equations to the case of structural heart diseases.We assumed a periodic alternation of healthy (bidomain model) and altered (diffusive inclusion) tissue patches. Such a model may be simulated directly, at the high computational cost of a very fine discretisation. Instead we derived a homogenized model at the macroscopic scale, using a rigorous two-scale analysis. We recovered a bidomain-type model with modified conductivity coefficients, and performed a 2D numerical verificationof the convergence of the microscopic model towards the homogenized one.In the second part we quantified the effects of different shapes and sizes of diffusive inclusions on the effective conductivity coefficients and their anisotropy ratios in 2D and3D. Additionally, we ran simulations on 2D patches of tissue with modified conductivity coefficients. We observed changes in the propagation velocity as well as in the shape of the depolarization wave-front.In the third part, based on high-resolution MR images of a rat heart we simulated 3D propagations with the homogenized model. Using image analysis software tools we assessed the structural properties of the tissue, that we used afterwards as parameters inthe homogenized model. Non-linear gap junctions. In the last part of this thesis, we studied the effects of nonlineargap junction channels on the signal propagation at the cell scale. In existing models, the gap junction channels, if modelled, are assumed to have a linear behaviour, while from experimental data we know that they have a time- and voltage-dependent non-linear behaviour. Firstly, we stated a non-linear 0D model for the gap junctional current, and secondly fitted the model to available experimental data. Finally, we proposed a 2D mathematical model that describes the electrical interaction of cardiac myocytes on the cell scale. It accounts for the gap junctional current as "the direct link" between the adjacent cells.
315

Etude mathématique et numérique d'un modèle gyrocinétique incluant des effets électromagnétiques pour la simulation d'un plasma de Tokamak / Mathematical and numerical study of a gyrokinetic model including electromagnetic effects for the simulation of the plasma in a Tokamak.

Lutz, Mathieu 24 October 2013 (has links)
Cette thèse propose différentes méthodes théoriques et numériques pour simuler à coût réduit le comportement des plasmas ou des faisceaux de particules chargées sous l’action d’un champ magnétique fort. Outre le champ magnétique externe, chaque particule est soumise à champ électromagnétique créé par les particules elles-mêmes. Dans les modèles cinétiques, les particules sont représentées par une fonction de distribution f(x,v,t) qui vérifie l’équation de Vlasov. Afin de déterminer le champ électromagnétique, cette équation est couplée aux équations de Maxwell ou de Poisson. L’aspect champ magnétique fort est alors pris en compte par un dimensionnement adéquat qui fait apparaître un paramètre de perturbation singulière 1/ε. / This thesis is devoted to the study of charged particle beams under the action of strong magnetic fields. In addition to the external magnetic field, each particle is submitted to an electromagnetic field created by the particles themselves. In kinetic models, the particles are represented by a distribution function f(x,v,t) solution of the Vlasov equation. To determine the electromagnetic field, this equation is coupled with the Maxwell equations or with the Poisson equation. The strong magnetic field assumption is translated by a scaling wich introduces a singular perturbation parameter 1/ε.
316

Moisture absorption characteristics and effects on mechanical behaviour of carbon/epoxy composite : application to bonded patch repairs of composite structures / Prise en eau par composites carbone/époxy et leur effet sur le comportement mécanique : application aux réparations de structures en composite par collage de patchs externes

Wong, King Jye 18 June 2013 (has links)
Le travail présenté dans ce mémoire avait pour objectif d’étudier le processus de la pénétration d'eau dans les composites en carbone/époxyde dans un premier temps, et dans un deuxième temps, d’étudier l’effet de la prise en eau par ces matériaux sur les performances mécaniques des composites et leur joints collés. L'intégration de ces phénomènes physiques dans la modélisation numérique est d'une grande importance dans la prédiction de la durabilité d’une structure en composite subissant un vieillissement hygrothermique. Par conséquent, ce travail consiste non seulement en des observations expérimentales, mais aussi en des simulations numériques. Des corrélations entre les résultats obtenus permettent d’une part de mieux comprendre ce qui se passe dans un système composite avec l’assemblage collé soumis à des charges mécaniques, de l’initiation d’endommagement jusqu’à la rupture finale ; d'autre part, de valider un modèle numérique robuste dans le but de la conception et de l’optimisation. Les originalités de ce travail se situent à différents niveaux en proposant : 1. un nouveau modèle de diffusion à deux-phases permettant de mieux décrire l’effet de l’épaisseur des stratifiés sur la pénétration de l’eau; 2. un nouveau modèle RPM « Residual Property Model » afin de prévoir la dégradation des propriétés mécaniques due à la prise en eau ; 3. une nouvelle loi de traction-séparation linéaire-exponentiel pour décrire la courbe-R observée dans les essais DCB en mode I pur sur les composites stratifiés afin de les intégrer plus facilement dans les modèles numériques / Le travail présenté dans ce mémoire avait pour objectif d’étudier le processus de la pénétration d'eau dans les composites en carbone/époxyde dans un premier temps, et dans un deuxième temps, d’étudier l’effet de la prise en eau par ces matériaux sur les performances mécaniques des composites et leur joints collés. L'intégration de ces phénomènes physiques dans la modélisation numérique est d'une grande importance dans la prédiction de la durabilité d’une structure en composite subissant un vieillissement hygrothermique. Par conséquent, ce travail consiste non seulement en des observations expérimentales, mais aussi en des simulations numériques. Des corrélations entre les résultats obtenus permettent d’une part de mieux comprendre ce qui se passe dans un système composite avec l’assemblage collé soumis à des charges mécaniques, de l’initiation d’endommagement jusqu’à la rupture finale ; d'autre part, de valider un modèle numérique robuste dans le but de la conception et de l’optimisation. Les originalités de ce travail se situent à différents niveaux en proposant : 1. un nouveau modèle de diffusion à deux-phases permettant de mieux décrire l’effet de l’épaisseur des stratifiés sur la pénétration de l’eau; 2. un nouveau modèle RPM « Residual Property Model » afin de prévoir la dégradation des propriétés mécaniques due à la prise en eau ; 3. une nouvelle loi de traction-séparation linéaire-exponentiel pour décrire la courbe-R observée dans les essais DCB en mode I pur sur les composites stratifiés afin de les intégrer plus facilement dans les modèles numériques
317

Mathematical modelling of oxygen transport in skeletal and cardiac muscles

Alshammari, Abdullah A. A. M. F. January 2014 (has links)
Understanding and characterising the diffusive transport of capillary oxygen and nutrients in striated muscles is key to assessing angiogenesis and investigating the efficacy of experimental and therapeutic interventions for numerous pathological conditions, such as chronic ischaemia. In articular, the influence of both muscle tissue and microvascular heterogeneities on capillary oxygen supply is poorly understood. The objective of this thesis is to develop mathematical and computational modelling frameworks for the purpose of extending and generalising the current use of histology in estimating the regions of tissue supplied by individual capillaries to facilitate the exploration of functional capillary oxygen supply in striated muscles. In particular, we aim to investigate the balance between local capillary supply of oxygen and oxygen demand in the presence of various anatomical and functional heterogeneities, by capturing tissue details from histological imaging and estimating or predicting regions of capillary supply. Our computational method throughout is based on a finite element framework that captures the anatomical details of tissue cross sections. In Chapter 1 we introduce the problem. In Chapter 2 we develop a theoretical model to describe oxygen transport from capillaries to uniform muscle tissues (e.g. cardiac muscle). Transport is then explored in terms of oxygen levels and capillary supply regions. In Chapter 3 we extend this modelling framework to explore the influence of the surrounding tissue by accounting for the spatial anisotropies of fibre oxygen demand and diffusivity and the heterogeneity in fibre size and shape, as exemplified by mixed muscle tissues (e.g. skeletal muscle). We additionally explore the effects of diffusion through the interstitium, facilitated--diffusion by myoglobin, and Michaelis--Menten kinetics of tissue oxygen consumption. In Chapter 4, a further extension is pursued to account for intracellular heterogeneities in mitochondrial distribution and diffusive parameters. As a demonstration of the potential of the models derived in Chapters 2--4, in Chapter 5 we simulate oxygen transport in myocardial tissue biopsies from rats with either impaired angiogenesis or impaired arteriolar perfusion. Quantitative predictions are made to help explain and support experimental measurements of cardiac performance and metabolism. In the final chapter we summarize the main results and indicate directions for further work.
318

On numerical resilience in linear algebra / Conception d'algorithmes numériques pour la résilience en algèbre linéaire

Zounon, Mawussi 01 April 2015 (has links)
Comme la puissance de calcul des systèmes de calcul haute performance continue de croître, en utilisant un grand nombre de cœurs CPU ou d’unités de calcul spécialisées, les applications hautes performances destinées à la résolution des problèmes de très grande échelle sont de plus en plus sujettes à des pannes. En conséquence, la communauté de calcul haute performance a proposé de nombreuses contributions pour concevoir des applications tolérantes aux pannes. Cette étude porte sur une nouvelle classe d’algorithmes numériques de tolérance aux pannes au niveau de l’application qui ne nécessite pas de ressources supplémentaires, à savoir, des unités de calcul ou du temps de calcul additionnel, en l’absence de pannes. En supposant qu’un mécanisme distinct assure la détection des pannes, nous proposons des algorithmes numériques pour extraire des informations pertinentes à partir des données disponibles après une pannes. Après l’extraction de données, les données critiques manquantes sont régénérées grâce à des stratégies d’interpolation pour constituer des informations pertinentes pour redémarrer numériquement l’algorithme. Nous avons conçu ces méthodes appelées techniques d’Interpolation-restart pour des problèmes d’algèbre linéaire numérique tels que la résolution de systèmes linéaires ou des problèmes aux valeurs propres qui sont indispensables dans de nombreux noyaux scientifiques et applications d’ingénierie. La résolution de ces problèmes est souvent la partie dominante; en termes de temps de calcul, des applications scientifiques. Dans le cadre solveurs linéaires du sous-espace de Krylov, les entrées perdues de l’itération sont interpolées en utilisant les entrées disponibles sur les nœuds encore disponibles pour définir une nouvelle estimation de la solution initiale avant de redémarrer la méthode de Krylov. En particulier, nous considérons deux politiques d’interpolation qui préservent les propriétés numériques clés de solveurs linéaires bien connus, à savoir la décroissance monotone de la norme-A de l’erreur du gradient conjugué ou la décroissance monotone de la norme résiduelle de GMRES. Nous avons évalué l’impact du taux de pannes et l’impact de la quantité de données perdues sur la robustesse des stratégies de résilience conçues. Les expériences ont montré que nos stratégies numériques sont robustes même en présence de grandes fréquences de pannes, et de perte de grand volume de données. Dans le but de concevoir des solveurs résilients de résolution de problèmes aux valeurs propres, nous avons modifié les stratégies d’interpolation conçues pour les systèmes linéaires. Nous avons revisité les méthodes itératives de l’état de l’art pour la résolution des problèmes de valeurs propres creux à la lumière des stratégies d’Interpolation-restart. Pour chaque méthode considérée, nous avons adapté les stratégies d’Interpolation-restart pour régénérer autant d’informations spectrale que possible. Afin d’évaluer la performance de nos stratégies numériques, nous avons considéré un solveur parallèle hybride (direct/itérative) pleinement fonctionnel nommé MaPHyS pour la résolution des systèmes linéaires creux, et nous proposons des solutions numériques pour concevoir une version tolérante aux pannes du solveur. Le solveur étant hybride, nous nous concentrons dans cette étude sur l’étape de résolution itérative, qui est souvent l’étape dominante dans la pratique. Les solutions numériques proposées comportent deux volets. A chaque fois que cela est possible, nous exploitons la redondance de données entre les processus du solveur pour effectuer une régénération exacte des données en faisant des copies astucieuses dans les processus. D’autre part, les données perdues qui ne sont plus disponibles sur aucun processus sont régénérées grâce à un mécanisme d’interpolation. / As the computational power of high performance computing (HPC) systems continues to increase by using huge number of cores or specialized processing units, HPC applications are increasingly prone to faults. This study covers a new class of numerical fault tolerance algorithms at application level that does not require extra resources, i.e., computational unit or computing time, when no fault occurs. Assuming that a separate mechanism ensures fault detection, we propose numerical algorithms to extract relevant information from available data after a fault. After data extraction, well chosen part of missing data is regenerated through interpolation strategies to constitute meaningful inputs to numerically restart the algorithm. We have designed these methods called Interpolation-restart techniques for numerical linear algebra problems such as the solution of linear systems or eigen-problems that are the inner most numerical kernels in many scientific and engineering applications and also often ones of the most time consuming parts. In the framework of Krylov subspace linear solvers the lost entries of the iterate are interpolated using the available entries on the still alive nodes to define a new initial guess before restarting the Krylov method. In particular, we consider two interpolation policies that preserve key numerical properties of well-known linear solvers, namely the monotony decrease of the A-norm of the error of the conjugate gradient or the residual norm decrease of GMRES. We assess the impact of the fault rate and the amount of lost data on the robustness of the resulting linear solvers.For eigensolvers, we revisited state-of-the-art methods for solving large sparse eigenvalue problems namely the Arnoldi methods, subspace iteration methods and the Jacobi-Davidson method, in the light of Interpolation-restart strategies. For each considered eigensolver, we adapted the Interpolation-restart strategies to regenerate as much spectral information as possible. Through intensive experiments, we illustrate the qualitative numerical behavior of the resulting schemes when the number of faults and the amount of lost data are varied; and we demonstrate that they exhibit a numerical robustness close to that of fault-free calculations. In order to assess the efficiency of our numerical strategies, we have consideredan actual fully-featured parallel sparse hybrid (direct/iterative) linear solver, MaPHyS, and we proposed numerical remedies to design a resilient version of the solver. The solver being hybrid, we focus in this study on the iterative solution step, which is often the dominant step in practice. The numerical remedies we propose are twofold. Whenever possible, we exploit the natural data redundancy between processes from the solver toperform an exact recovery through clever copies over processes. Otherwise, data that has been lost and is not available anymore on any process is recovered through Interpolationrestart strategies. These numerical remedies have been implemented in the MaPHyS parallel solver so that we can assess their efficiency on a large number of processing units (up to 12; 288 CPU cores) for solving large-scale real-life problems.
319

Analyse mathématique de modèles de trafic routier congestionné / Mathematical analysis of models of congested road traffic

Hatchi, Roméo 02 December 2015 (has links)
Cette thèse est dédiée à l'étude mathématique de quelques modèles de trafic routier congestionné. La notion essentielle est l'équilibre de Wardrop. Elle poursuit des travaux de Carlier et Santambrogio avec des coauteurs. Baillon et Carlier ont étudié le cas de grilles cartésiennes dans $\RR^2$ de plus en plus denses, dans le cadre de la théorie de $\Gamma$-convergence. Trouver l'équilibre de Wardrop revient à résoudre des problèmes de minimisation convexe. Dans le chapitre 2, nous regardons ce qui se passe dans le cas de réseaux généraux, de plus en plus denses, dans $\RR^d$. Des difficultés nouvelles surgissent par rapport au cas initial de réseaux cartésiens et pour les contourner, nous introduisons la notion de courbes généralisées. Des hypothèses structurelles sur ces suites de réseaux discrets sont nécessaires pour s'assurer de la convergence. Cela fait alors apparaître des fonctions qui sont des sortes de distances de Finsler et qui rendent compte de l'anisotropie du réseau. Nous obtenons ainsi des résultats similaires à ceux du cas cartésien. Dans le chapitre 3, nous étudions le modèle continu et en particulier, les problèmes limites. Nous trouvons alors des conditions d'optimalité à travers une formulation duale qui peut être interprétée en termes d'équilibres continus de Wardrop. Cependant, nous travaillons avec des courbes généralisées et nous ne pouvons pas appliquer directement le théorème de Prokhorov, comme cela a été le cas dans \cite{baillon2012discrete, carlier2008optimal}. Pour pouvoir néanmoins l'utiliser, nous considérons une version relaxée du problème limite, avec des mesures d'Young. Dans le chapitre 4, nous nous concentrons sur le cas de long terme, c'est-à-dire, nous fixons uniquement les distributions d'offre et de demande. Comme montré dans \cite{brasco2013congested}, le problème de l'équilibre de Wardrop est équivalent à un problème à la Beckmann et il se réduit à résoudre une EDP elliptique, anisotropique et dégénérée. Nous utilisons la méthode de résolution numérique de Lagrangien augmenté présentée dans \cite{benamou2013augmented} pour proposer des exemples de simulation. Enfin, le chapitre 5 a pour objet l'étude de problèmes de Monge avec comme coût une distance de Finsler. Cela se reformule en des problèmes de flux minimal et une discrétisation de ces problèmes mène à un problème de point-selle. Nous le résolvons alors numériquement, encore grâce à un algorithme de Lagrangien augmenté. / This thesis is devoted to the mathematical analysis of some models of congested road traffic. The essential notion is the Wardrop equilibrium. It continues Carlier and Santambrogio's works with coauthors. With Baillon they studied the case of two-dimensional cartesian networks that become very dense in the framework of $\Gamma$-convergence theory. Finding Wardrop equilibria is equivalent to solve convex minimisation problems.In Chapter 2 we look at what happens in the case of general networks, increasingly dense. New difficulties appear with respect to the original case of cartesian networks. To deal with these difficulties we introduce the concept of generalized curves. Structural assumptions on these sequences of discrete networks are necessary to obtain convergence. Sorts of Finsler distance are used and keep track of anisotropy of the network. We then have similar results to those in the cartesian case.In Chapter 3 we study the continuous model and in particular the limit problems. Then we find optimality conditions through a duale formulation that can be interpreted in terms of continuous Wardrop equilibria. However we work with generalized curves and we cannot directly apply Prokhorov's theorem, as in \cite{baillon2012discrete, carlier2008optimal}. To use it we consider a relaxed version of the limit problem with Young's measures. In Chapter 4 we focus on the long-term case, that is, we fix only the distributions of supply and demand. As shown in \cite{brasco2013congested} the problem of Wardrop equilibria can be reformulated in a problem à la Beckmann and reduced to solve an elliptic anisotropic and degenerated PDE. We use the augmented Lagrangian scheme presented in \cite{benamou2013augmented} to show a few numerical simulation examples. Finally Chapter 5 is devoted to studying Monge problems with as cost a Finsler distance. It leads to minimal flow problems. Discretization of these problems is equivalent to a saddle-point problem. We then solve it numerically again by an augmented Lagrangian algorithm.
320

Studies on instability and optimal forcing of incompressible flows

Brynjell-Rahkola, Mattias January 2017 (has links)
This thesis considers the hydrodynamic instability and optimal forcing of a number of incompressible flow cases. In the first part, the instabilities of three problems that are of great interest in energy and aerospace applications are studied, namely a Blasius boundary layer subject to localized wall-suction, a Falkner–Skan–Cooke boundary layer with a localized surface roughness, and a pair of helical vortices. The two boundary layer flows are studied through spectral element simulations and eigenvalue computations, which enable their long-term behavior as well as the mechanisms causing transition to be determined. The emergence of transition in these cases is found to originate from a linear flow instability, but whereas the onset of this instability in the Blasius flow can be associated with a localized region in the vicinity of the suction orifice, the instability in the Falkner–Skan–Cooke flow involves the entire flow field. Due to this difference, the results of the eigenvalue analysis in the former case are found to be robust with respect to numerical parameters and domain size, whereas the results in the latter case exhibit an extreme sensitivity that prevents domain independent critical parameters from being determined. The instability of the two helices is primarily addressed through experiments and analytic theory. It is shown that the well known pairing instability of neighboring vortex filaments is responsible for transition, and careful measurements enable growth rates of the instabilities to be obtained that are in close agreement with theoretical predictions. Using the experimental baseflow data, a successful attempt is subsequently also made to reproduce this experiment numerically. In the second part of the thesis, a novel method for computing the optimal forcing of a dynamical system is developed. The method is based on an application of the inverse power method preconditioned by the Laplace preconditioner to the direct and adjoint resolvent operators. The method is analyzed for the Ginzburg–Landau equation and afterwards the Navier–Stokes equations, where it is implemented in the spectral element method and validated on the two-dimensional lid-driven cavity flow and the flow around a cylinder. / <p>QC 20171124</p>

Page generated in 0.133 seconds