• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 15
  • 5
  • Tagged with
  • 42
  • 42
  • 19
  • 18
  • 15
  • 15
  • 14
  • 14
  • 12
  • 12
  • 12
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Contribution au calcul d'écoulements de fluides complexes

Vincent, Huber 19 September 2012 (has links) (PDF)
La première contribution de cette thèse est l'étude de la modélisation ainsi que de la discrétisation des écoulements multiphasiques en géométrie microfluidique. Nous proposons un nouveau schéma d'ordre deux de discrétisation basé sur les méthodes mixtes volumes finis/éléments finis pour le système de Stokes bi-fluides avec tension de surface. Nous présentons alors des comparaison de la précision de ce nouveau schéma avec la discrétisation MAC, en 2D et en 3D-axi. La seconde contribution est relative à l'étude de schémas numériques en temps pour les fluides viscoélastiques. Nous présentons les limites actuelles des modélisations dans ce domaine en étudiant le cas des écoulements de micelles géantes, polymères ayant la capacité de se réorganiser spatialement en fonction du taux de cisaillement. Nous montrons qu'une condition de stabilité liée au ratio de viscosité du polymère et du solvant en temps - très restrictive - existe. Un nouveau schéma est alors proposé pour contourner cette limitation et des études stabilité sont menés pour démontrer nos résultats.
32

A DSEL in C++ for lowest-order methods for diffusive problem on general meshes / Programmation générative appliquée au prototypage d'Applications performantes sur des architectures massivement parallèles pour l'approximation volumes finis de systèmes physiques complexes

Gratien, Jean-Marc 27 May 2013 (has links)
Les simulateurs industriels deviennent de plus en plus complexes car ils doivent intégrer de façon performante des modèles physiques complets et des méthodes de discrétisation évoluées. Leur mise au point nécessite de gérer de manière efficace la complexité des modèles physiques sous-jacents, la complexité des méthodes numériques utilisées, la complexité des services numériques de bas niveau nécessaires pour tirer parti des architectures matérielle modernes et la complexité liée aux langages informatiques. Une réponse partielle au problème est aujourd'hui fournie par des plate-formes qui proposent des outils avancés pour gérer de façon transparente la complexité liée au parallélisme. Cependant elles ne gèrent que la complexité du matériel et les services numériques de bas niveau comme l'algèbre linéaire. Dans le contexte des méthodes Éléments Finis (EF), l'existence d'un cadre mathématique unifié a permis d'envisager des outils qui permettent d'aborder aussi la complexité issue des méthodes numériques et celle liée aux problèmes physiques, citons, par exemple, les projets Freefem++, Getdp, Getfem++, Sundance, Feel++ et Fenics. Le travail de thèse a consisté à étendre cette approche aux méthodes d'ordre bas pour des systèmes d'EDPs, méthodes qui souffraient jusqu'à maintenant d'une absence d'un cadre suffisamment général permettant son extension à des problèmes différents. Des travaux récents ont résolue cette difficulté, par l'introduction d'une nouvelle classe de méthodes d'ordre bas inspirée par les éléments finis non conformes. Cette formulation permet d'exprimer dans un cadre unifié les schémas VF multi-points et les méthodes DFM/VFMH. Ce nouveau cadre a permis la mise au point d'un langage spécifique DSEL en C++ qui permet de développer des applications avec un haut niveau d'abstraction, cachant la complexité des méthodes numériques et des services bas niveau garanties de haute performances. La syntaxe et les techniques utilisées sont inspirée par celles de Feel++. Le DSEL a été développé à partir de la plate-forme Arcane, et embarqué dans le C++. Les techniques de DSEL permettent de représenter un problème et sa méthode de résolution avec une expression, parsée à la compilation pour générer un programme, et évaluée à l'exécution pour construire un système linéaire que l'on peut résoudre pour trouver la solution du problème. Nous avons mis au point notre DSEL à l'aide d'outils standard issus de la bibliothèque Boost puis l'avons validé sur divers problèmes académiques non triviaux tels que des problèmes de diffusion hétérogène et le problème de Stokes. Dans un deuxième temps, dans le cadre du projet ANR HAMM (Hybrid Architecture and Multiscale Methods), nous avons validé notre approche en complexifiant le type de méthodes abordées et le type d'architecture matérielle cible pour nos programmes. Nous avons étendu le formalisme mathématique sur lequel nous nous basons pour pouvoir écrire des méthodes multi-échelle puis nous avons enrichi notre DSEL pour pouvoir implémenter de telles méthodes. Afin de pouvoir tirer partie de façon transparente des performances de ressources issues d'architectures hybrides proposant des cartes graphiques de type GPGPU, nous avons mis au point une couche abstraite proposant un modèle de programmation unifié qui permet d'accéder à différents niveaux de parallélisme plus ou moins fin en fonction des spécificités de l'architecture matérielle cible. Nous avons validé cette approche en évaluant les performances de cas tests utilisant des méthodes multi-échelle sur des configurations variés de machines hétérogènes. Pour finir nous avons implémenté des applications variées de type diffusion-advection-réaction, de Navier-Stokes incompressible et de type réservoir. Nous avons validé la flexibilité de notre approche et la capacité qu'elle offre à appréhender des problèmes variés puis avons étudié les performances des diverses implémentations. / Industrial simulation software has to manage : the complexity of the underlying physical models, usually expressed in terms of a PDE system completed with algebraic closure laws, the complexity of numerical methods used to solve the PDE systems, and finally the complexity of the low level computer science services required to have efficient software on modern hardware. Nowadays, this complexity management becomes a key issue for the development of scientific software. Some frameworks already offer a number of advanced tools to deal with the complexity related to parallelism in a transparent way. However, all these frameworks often provide only partial answers to the problem as they only deal with hardware complexity and low level numerical complexity like linear algebra. High level complexity related to discretization methods and physical models lack tools to help physicists to develop complex applications. New paradigms for scientific software must be developed to help them to seamlessly handle the different levels of complexity so that they can focus on their specific domain. Generative programming, component engineering and domain-specific languages (either DSL or DSEL) are key technologies to make the development of complex applications easier to physicists, hiding the complexity of numerical methods and low level computer science services. These paradigms allow to write code with a high level expressive language and take advantage of the efficiency of generated code for low level services close to hardware specificities. In the domain of numerical algorithms to solve partial differential equations, their application has been up to now limited to Finite Element (FE) methods, for which a unified mathematical framework has been existing for a long time. Such kinds of DSL have been developed for finite element or Galerkin methods in projects like Freefem++, Getdp, Getfem++, Sundance, Feel++ and Fenics. A new consistent unified mathematical frame has recently emerged and allows a unified description of a large family of lowest-order methods. This framework allows then, as in FE methods, the design of a high level language inspired from the mathematical notation, that could help physicists to implement their application writing the mathematical formulation at a high level. We propose to develop a language based on that frame, embedded in the C++ language. Our work relies on a mathematical framework that enables us to describe a wide family of lowest order methods including multiscale methods based on lowest order methods. We propose a DSEL developed on top of Arcane platform, based on the concepts presented in the unified mathematical frame and on the Feel++ DSEL. The DSEL is implemented with the Boost.Proto library by Niebler, a powerful framework to build a DSEL in C++. We have proposed an extension of the computational framework to multiscale methods and focus on the capability of our approach to handle complex methods.Our approach is extended to the runtime system layer providing an abstract layer that enable our DSEL to generate efficient code for heterogeneous architectures. We validate the design of this layer by benchmarking multiscale methods. This method provides a great amount of independent computations and is therefore the kind of algorithms that can take advantage efficiently of new hybrid hardware technology. Finally we benchmark various complex applications and study the performance results of their implementations with our DSEL.
33

Efficient algorithms for verified scientific computing : Numerical linear algebra using interval arithmetic / Algorithmes efficaces pour le calcul scientifique vérifié : algèbre linéaire numérique et arithmétique par intervalles

Nguyen, Hong Diep 18 January 2011 (has links)
L'arithmétique par intervalles permet de calculer et simultanément vérifier des résultats. Cependant, une application naïve de cette arithmétique conduit à un encadrement grossier des résultats. De plus, de tels calculs peuvent être lents.Nous proposons des algorithmes précis et des implémentations efficaces, utilisant l'arithmétique par intervalles, dans le domaine de l'algèbre linéaire. Deux problèmes sont abordés : la multiplication de matrices à coefficients intervalles et la résolution vérifiée de systèmes linéaires. Pour le premier problème, nous proposons deux algorithmes qui offrent de bons compromis entre vitesse et précision. Pour le second problème, nos principales contributions sont d'une part une technique de relaxation, qui réduit substantiellement le temps d'exécution de l'algorithme, et d'autre part l'utilisation d'une précision étendue en quelques portions bien choisies de l'algorithme, afin d'obtenir rapidement une grande précision. / Interval arithmetic is a means to compute verified results. However, a naive use of interval arithmetic does not provide accurate enclosures of the exact results. Moreover, interval arithmetic computations can be time-consuming. We propose several accurate algorithms and efficient implementations in verified linear algebra using interval arithmetic. Two fundamental problems are addressed, namely the multiplication of interval matrices and the verification of a floating-point solution of a linear system. For the first problem, we propose two algorithms which offer new tradeoffs between speed and accuracy. For the second problem, which is the verification of the solution of a linear system, our main contributions are twofold. First, we introduce a relaxation technique, which reduces drastically the execution time of the algorithm. Second, we propose to use extended precision for few, well-chosen parts of the computations, to gain accuracy without losing much in term of execution time.
34

Identification de la conductivité hydraulique pour un problème d'intrusion saline : Comparaison entre l'approche déterministe et l'approche stochastique / Identification of hydraulic conductivity for a seawater intrusion problem : Comparison between the deterministic approach and the stochastic approach

Mourad, Aya 12 December 2017 (has links)
Le thème de cette thèse est l'identification de paramètres tels que la conductivité hydraulique, K, pour un problème d'intrusion marine dans un aquifère isotrope et libre. Plus précisément, il s'agit d'estimer la conductivité hydraulique en fonction d'observations ou de mesures sur le terrain faites sur les profondeurs des interfaces (h, h₁), entre l'eau douce et l'eau salée et entre le milieu saturé et la zone insaturée. Le problème d'intrusion marine consiste en un système à dérivée croisée d'edps de type paraboliques décrivant l'évolution de h et de h₁. Le problème inverse est formulé en un problème d'optimisation où la fonction coût minimise l'écart quadratique entre les mesures des profondeurs des interfaces et celles fournies par le modèle. Nous considérons le problème exact comme une contrainte pour le problème d'optimisation et nous introduisons le Lagrangien associé à la fonction coût. Nous démontrons alors que le système d'optimalité a au moins une solution, les princcipales difficultés étant de trouver le bon ensemble pour les paramètres admissibles et de prouver la différentiabilité de l'application qui associe (h(K), h₁(K₁)) à K. Ceci constitue le premier résultat de la thèse. Le second résultat concerne l'implémentation numérique du problème d'optimisation. Notons tout d'abord que, concrètement, nous ne disposons que d'observations ponctuelles (en espace et en temps) correspondant aux nombres de puits de monitoring. Nous approchons donc la fonction coût par une formule de quadrature qui est ensuite minimisée en ultilisant l'algorithme de la variable à mémoire limitée (BLMVM). Par ailleurs, le problème exact et le problème adjoint sont discrétisés en espace par une méthode éléments finis P₁-Lagrange combinée à un schéma semi-implicite en temps. Une analyse de ce schéma nous permet de prouver qu'il est d'ordre 1 en temps et en espace. Certains résultats numériques sont présentés pour illustrer la capacité de la méthode à déterminer les paramètres inconnus. Dans la troisième partie de la thèse, nous considérons la conductivité hydraulique comme un paramètre stochastique. Pour réaliser une étude numérique rigoureuse des effets stochastiques sur le problème d'intrusion marine, nous utilisons les développements de Wiener pour tenir compte des variables aléatoires. Le système initiale est alors transformé en une suite de systèmes déterministes qu'on résout pour chaque coefficient stochastique du développement de Wiener. / This thesis is concerned with the identification, from observations or field measurements, of the hydraulic conductivity K for the saltwater intrusion problem involving a nonhomogeneous, isotropic and free aquifer. The involved PDE model is a coupled system of nonlinear parabolic equations completed by boudary and initial conditions, as well as compatibility conditions on the data. The main unknowns are the saltwater/freshwater interface depth and the elevation of upper surface of the aquifer. The inverse problem is formulated as the optimization problem where the cost function is a least square functional measuring the discrepancy between experimental interfaces depths and those provided by the model. Considering the exact problem as a constraint for the optimization problem and introducing the Lagrangian associated with the cost function, we prove that the optimality system has at least one solution. The main difficulties are to find the set of all eligible parameters and to prove the differentiability of the operator associating to the hydraulic conductivity K, the state variables (h, h₁). This is the first result of the thesis. The second result concerns the numerical implementation of the optimization problem. We first note that concretely, we only have specific observations (in space and in time) corresponding to the number of monitoring wells, we then adapt the previous results to the case of discrete observations data. The gradient of the cost function is computed thanks to an approximate formula in order to take into account the discrete observations data. The cost functions then is minimized by using a method based on BLMVM algorithm. On the other hand, the exact problem and the adjoint problem are discretized in space by a P₁-Lagrange finite element method combined with a semi-implicit time discretization scheme. Some numerical results are presented to illustrate the ability of the method to determine the unknown parameters. In the third part of the thesis we consider the hydraulic conductivity as a stochastic parameter. To perform a rigorous numerical study of stochastic effects on the saltwater intrusion problem, we use the spectral decomposition and the stochastic variational problem is reformulated to a set of deterministic variational problems to be solved for each Wiener polynomial chaos.
35

Contribution au calcul d’écoulements de fluides complexes / Contribution to visco-elestic flows simulations

Huber, Vincent 19 September 2012 (has links)
La première contribution de cette thèse est l'étude de la modélisation ainsi que de la discrétisation des écoulements multiphasique en géométrie microfluidique. Nous proposons un nouveau schéma d'ordre deux de discrétisation basé sur les méthodes mixtes volumes finis/éléments finis pour le système de Stokes bi-fluides avec tension de surface.Nous présentons alors des comparaison de la précision de ce nouveau schéma avec la discrétisation MAC, en 2D et en 3D-axi. La seconde contribution est relative à l'étude de schémas numériques en temps pour les fluides viscoélastiques. Nous présentons les limites actuelles des modélisations dans ce domaine en étudiant le cas des écoulements de micelles géantes, polymères ayant la capacité de se réorganiser spatialement en fonction du taux de cisaillement. Nous montrons qu'une condition de stabilité liée au ratio de viscosité du polymère et du solvant en temps - très restrictive - existe. Un nouveau schéma est alors proposé pour contourner cette limitation et des études stabilité sont menés pour démontrer nos résultats. / The first contribution of this thesis is the analysis and discretization of multiphase flow in a microfluidic framework.We propose a new scheme wich is second order accurate, based on mixed finite volume / finite element method for the two phases Stokes system with surface tension.We then present the comparison of the accuracy of this new scheme with the MAC discretization in 2D and 3D axi.The second contribution is related to the study of numerical schemes in time for viscoelastic fluids.We present the current limitations in this area by studying the case of flows of wormlike micelles, polymers having the ability to reorganize themselves according to the shear rate.We show that a condition of stability related to the ratio of viscosity of the polymer and solvent in time - very restrictive - exists.A new scheme is then proposed to overcome this limitation and stability studies are conducted to demonstrate our results.
36

Quantitative a posteriori error estimators in Finite Element-based shape optimization / Estimations d'erreur a posteriori quantitatives pour l'approximation des problèmes d'optimisation de forme par la méthode des éléments finis

Giacomini, Matteo 09 December 2016 (has links)
Les méthodes d’optimisation de forme basées sur le gradient reposent sur le calcul de la dérivée de forme. Dans beaucoup d’applications, la fonctionnelle coût dépend de la solution d’une EDP. Il s’en suit qu’elle ne peut être résolue exactement et que seule une approximation de celle-ci peut être calculée, par exemple par la méthode des éléments finis. Il en est de même pour la dérivée de forme. Ainsi, les méthodes de gradient en optimisation de forme - basées sur des approximations du gradient - ne garantissent pas a priori que la direction calculée à chaque itération soit effectivement une direction de descente pour la fonctionnelle coût. Cette thèse est consacrée à la construction d’une procédure de certification de la direction de descente dans des algorithmes de gradient en optimisation de forme grâce à des estimations a posteriori de l’erreur introduite par l’approximation de la dérivée de forme par la méthode des éléments finis. On présente une procédure pour estimer l’erreur dans une Quantité d’Intérêt et on obtient une borne supérieure certifiée et explicitement calculable. L’Algorithme de Descente Certifiée (CDA) pour l’optimisation de forme identifie une véritable direction de descente à chaque itération et permet d’établir un critère d’arrêt fiable basé sur la norme de la dérivée de forme. Deux applications principales sont abordées dans la thèse. Premièrement, on considère le problème scalaire d’identification de forme en tomographie d’impédance électrique et on étudie différentes estimations d’erreur. Une première approche est basée sur le principe de l’énergie complémentaire et nécessite la résolution de problèmes globaux additionnels. Afin de réduire le coût de calcul de la procédure de certification, une estimation qui dépend seulement de quantités locales est dérivée par la reconstruction des flux équilibrés. Après avoir validé les estimations de l’erreur pour un cas bidimensionnel, des résultats numériques sont présentés pour tester les méthodes discutées. Une deuxième application est centrée sur le problème vectoriel de la conception optimale des structures élastiques. Dans ce cadre figure, on calcule l’expression volumique de la dérivée de forme de la compliance à partir de la formulation primale en déplacements et de la formulation duale mixte pour l’équation de l’élasticité linéaire. Quelques résultats numériques préliminaires pour la minimisation de la compliance sous une contrainte de volume en 2D sont obtenus à l’aide de l’Algorithme de Variation de Frontière et une estimation a posteriori de l’erreur de la dérivée de forme basée sur le principe de l’énergie complémentaire est calculée. / Gradient-based shape optimization strategies rely on the computation of the so-called shape gradient. In many applications, the objective functional depends both on the shape of the domain and on the solution of a PDE which can only be solved approximately (e.g. via the Finite Element Method). Hence, the direction computed using the discretized shape gradient may not be a genuine descent direction for the objective functional. This Ph.D. thesis is devoted to the construction of a certification procedure to validate the descent direction in gradient-based shape optimization methods using a posteriori estimators of the error due to the Finite Element approximation of the shape gradient.By means of a goal-oriented procedure, we derive a fully computable certified upper bound of the aforementioned error. The resulting Certified Descent Algorithm (CDA) for shape optimization is able to identify a genuine descent direction at each iteration and features a reliable stopping criterion basedon the norm of the shape gradient.Two main applications are tackled in the thesis. First, we consider the scalar inverse identification problem of Electrical Impedance Tomography and we investigate several a posteriori estimators. A first procedure is inspired by the complementary energy principle and involves the solution of additionalglobal problems. In order to reduce the computational cost of the certification step, an estimator which depends solely on local quantities is derived via an equilibrated fluxes approach. The estimators are validated for a two-dimensional case and some numerical simulations are presented to test the discussed methods. A second application focuses on the vectorial problem of optimal design of elastic structures. Within this framework, we derive the volumetric expression of the shape gradient of the compliance using both H 1 -based and dual mixed variational formulations of the linear elasticity equation. Some preliminary numerical tests are performed to minimize the compliance under a volume constraint in 2D using the Boundary Variation Algorithm and an a posteriori estimator of the error in the shape gradient is obtained via the complementary energy principle.
37

Modélisation numérique de l'activité électrique dans les oreillettes et les veines pulmonaires / Numerical modeling of the electrical activity of the atria and the pulmonary veins

Labarthe, Simon 13 December 2013 (has links)
Le travail présenté dans ce manuscrit s’articule en trois axes distincts. Dérivation de modèles mathématiques de phénomènes électrophysiologiques en cardiologie Nous utilisons des méthodes d'analyse asymptotique pour dériver un modèle simplifié à partir d'un modèle de tissu auriculaire tridimensionnel, tout en contrôlant l'erreur d'approximation. Ces méthodes ont permis de dériver un modèle bisurfacique qui permet de simuler des comportements tridimensionnels dans les oreillettes pour un coût numérique bidimensionnel afin d'étudier des phénomènes entrant en jeu lors d'arythmies auriculaires, tels que la dissociation électrique ou des hétérogénéités transmurales. La preuve de la convergence du modèle bisurfacique est apportée, et une stratégie d'optimisation du modèle en dehors du régime asymptotique est formalisée. Une méthode d’homogénéisation est également utilisée pour construire un modèle continu homogénéisé de l'activité des myocytes incluant le comportement non linéaire des gap junctions. Processus déclencheurs d'arythmie Des preuves de concepts de mécanismes arythmogènes sont apportées à l'aide de modèles numériques des veines pulmonaires. Le premier mécanisme repose sur un bloc de conduction unidirectionnel engendré par une discontinuité dans la structure fibreuse. Le second est basé sur une dynamique différente lors de la dépolarisation et de la repolarisation lorsque deux couches de fibres de directions différentes sont superposées. Perpétuation des arythmies auriculaires Un modèle bicouche des oreillettes est construit à partir d'une méthode semi-automatique de construction des fibres que nous avons développées. Nous étudions avec l'influence d'hétérogénéités transmurales de fibrose sur la perpétuation des arythmies. Plusieurs protocoles d'ablation sont ensuite testés. Enfin, une méthode de personnalisation du modèle auriculaire est formalisée. / Three axes are explored.Derivation of mathematical models of electrophysiological phenomena applied to cardiology Asymptotic analysis methods allow to derive simplified models from three-dimensional complex atrial ones, while controlling approximation errors. We construct a bilayer surface model that allows to simulate three-dimensional phenomena for a bi-dimensional computational load, and to investigate 3D atrial patterns involved in atrial arrhythmia such as electrical dissociation or transmural heterogeneities. We prove the convergence of the bilayer model, and an optimization strategy to improve the model outside the asymptotic regime is formalised. Homogeneisation methods are also used to construct a homogenized continuous model of the electrical activity of the myocytes that includes the non linear behavior of gap junctions. Triggers of atrial arrhythmia Proofs of concept of arrhythmogenic mechanisms are given by using numerical models of the pulmonary veins. The first mechanism is based on a unidirectional conduction block triggered by a discontinuity of the fibre distribution. The second one comes from a different propagation pattern during the depolarization and the repolarization when two layer of fibres are superimposed. Atrial arrhythmia perpetuation A bilayer model of the atria is constructed from a semi automatic method that we developed. We investigate the influence of transmural heterogeneities of the distribution of fibrosis on the perpetuation of atrial arrhythmia. Several ablation protocols are assessed. Finally, a method of personalization of the model is given.
38

Modélisation, analyse numérique et simulations autour de la respiration / Modelling, numerical analysis and simulations for human respiration

Fouchet-Incaux, Justine 17 April 2015 (has links)
Cette thèse est consacrée à la modélisation de la ventilation mécanique chez l'humain et à l'analyse numérique des systèmes en découlant. Des simulations directes d'écoulement d'air dans l'ensemble des voies aériennes étant impossibles (maillages indisponibles et géométrie trop complexe), il est nécessaire de considérer un domaine d'intérêt réduit, qui implique de travailler dans une géométrie tronquée, comportant des frontières artificielles ou encore de considérer des modèles réduits simples mais représentatifs. Si on cherche à effectuer des simulations numériques 3D où l'écoulement du fluide est décrit par les équations de Navier-Stokes, différentes problématiques sont soulevées :- Si on considère que la ventilation est la conséquence de différences de pression, les conditions aux limites associées sont des conditions de type Neumann. Cela aboutit à des questions théoriques en terme d'existence et d'unicité de solution et à des questions numériques en terme de choix de schémas et de méthodes adaptées.- Lorsque l'on travaille dans un domaine tronqué, il peut être nécessaire de prendre en compte les phénomènes non décrits grâce à des modèles réduits appropriés. Ici nous considérons des modèles 0D. Ces couplages 3D/0D sont à l'origine d'instabilités numériques qu'on étudie mathématiquement et numériquement dans ce manuscrit. Par ailleurs, lorsqu'on s'intéresse à des régimes de respiration forcée, les modèles usuels linéaires sont invalidés par les expériences. Afin d'observer les différences entre les résultats expérimentaux et numériques, il est nécessaire de prendre en compte plusieurs types de non linéarités, comme la déformation du domaine ou les phénomènes de type Bernoulli. Une approche par modèles réduits est adoptée dans ce travail.Pour finir, on a cherché à valider les modèles obtenus en comparant des résultats numériques et des résultats expérimentaux dans le cadre d'un travail interdisciplinaire.Parvenir à modéliser et simuler ces écoulements permet de mieux comprendre les phénomènes et paramètres qui entrent en jeu lors de pathologies (asthme, emphysème...). Un des objectifs à moyen terme est d'étudier l'influence du mélange hélium-oxygène sur le dépôt d'aérosol, toujours dans le cadre du travail interdisciplinaire. A plus long terme, l'application de ces modèles à des situations pathologiques pourrait permettre de construire des outils d'aide à la décision dans le domaine médical (compréhension de la pathologie, optimisation de thérapie...). / In this thesis, we study the modelling of the human mecanical ventilation and the numerical analysis of linked systems. Direct simulations of air flow in the whole airways are impossible (complex geometry, unavailable meshes). Then a reduced area of interest can be considered, working with reduced geometries and artificial boundaries. One can also use reduced models, simple but realistic. If one try to make 3D numerical simulations where the fluid flow is described by the Navier-Stokes equations, various issues are raised:- If we consider that ventilation is the result of pressure drops, the associated boundary conditions are Neumann conditions. It leads to theoretical questions in terms of existence and uniqueness of solution and numerical issues in terms of scheme choice and appropriate numerical methods.- When working in a truncated domain, it may be necessary to take into account non-described phenomena with appropriate models. Here we consider 0D models. These 3D/0D couplings imply numerical instabilities that we mathematically and numerically study in this thesis.Furthermore, when we focus on forced breathing, linear usual models are invalidated by experiments. In order to observe the differences between the experimental and numerical results, it is necessary to take into account several types of non-linearities, such as deformation of the domain or the Bernoulli phenomenon. A reduced model approach is adopted in this work. Finally, we sought to validate the obtained models by comparing numerical and experimental results in the context of interdisciplinary work.Achieving model and simulate these flows allow to better understand phenomena and parameters that come into play in diseases (asthma, emphysema ...). A medium-term objective is to study the influence of helium-oxygen mixture in the aerosol deposition. In the longer term, the application of these models to pathological situations could afford to build decision support tools in the medical field (understanding of pathology, therapy optimization ...).
39

Modélisation de l'activité électrique des oreillettes et des veines pulmonaires

Labarthe, Simon 13 December 2013 (has links) (PDF)
Le travail présenté dans ce manuscrit s'articule en trois axes distincts. 1) Dérivation de modèles mathématiques de phénomènes électrophysiologiques en cardiologie. Nous utilisons des méthodes d'analyse asymptotique pour dériver un modèle simplifié à partir d'un modèle de tissu auriculaire tridimensionnel, tout en contrôlant l'erreur d'approximation. Ces méthodes ont permis de dériver un modèle bisurfacique qui permet de simuler des comportements tridimensionnels dans les oreillettes pour un coût numérique bidimensionnel afin d'étudier des phénomènes entrant en jeu lors d'arythmies auriculaires, tels que la dissociation électrique ou des hétérogénéités transmurales. La preuve de la convergence du modèle bisurfacique est apportée, et une stratégie d'optimisation du modèle en dehors du régime symptotique est formalisée. Une méthode d'homogénéisation est également utilisée pour construire un modèle continu homogénéisé de l'activité des myocytes incluant le comportement non linéaire des gap junctions. 2)Processus déclencheurs d'arythmie. Des preuves de concepts de mécanismes arythmogènes sont apportées à l'aide de modèles numériques des veines pulmonaires. Le premier mécanisme repose sur un bloc de conduction unidirectionnel engendré par une discontinuité dans la structure fibreuse. Le second est basé sur une dynamique différente lors de la dépolarisation et de la repolarisation lorsque deux couches de fibres de directions différentes sont superposées. 3)Perpétuation des arythmies auriculaires. A partir d'un modèle bicouche des oreillettes, nous étudions l'influence d'hétérogénéités transmurales de fibrose sur la perpétuation des arythmies. Plusieurs protocoles d'ablation sont ensuite testés. Enfin, une méthode de personnalisation du modèle auriculaire est formalisée.
40

Analyse de sensibilité et réduction de dimension. Application à l'océanographie

Janon, Alexandre 15 November 2012 (has links) (PDF)
Les modèles mathématiques ont pour but de décrire le comportement d'un système. Bien souvent, cette description est imparfaite, notamment en raison des incertitudes sur les paramètres qui définissent le modèle. Dans le contexte de la modélisation des fluides géophysiques, ces paramètres peuvent être par exemple la géométrie du domaine, l'état initial, le forçage par le vent, ou les coefficients de frottement ou de viscosité. L'objet de l'analyse de sensibilité est de mesurer l'impact de l'incertitude attachée à chaque paramètre d'entrée sur la solution du modèle, et, plus particulièrement, identifier les paramètres (ou groupes de paramètres) og sensibles fg. Parmi les différentes méthodes d'analyse de sensibilité, nous privilégierons la méthode reposant sur le calcul des indices de sensibilité de Sobol. Le calcul numérique de ces indices de Sobol nécessite l'obtention des solutions numériques du modèle pour un grand nombre d'instances des paramètres d'entrée. Cependant, dans de nombreux contextes, dont celui des modèles géophysiques, chaque lancement du modèle peut nécessiter un temps de calcul important, ce qui rend inenvisageable, ou tout au moins peu pratique, d'effectuer le nombre de lancements suffisant pour estimer les indices de Sobol avec la précision désirée. Ceci amène à remplacer le modèle initial par un emph{métamodèle} (aussi appelé emph{surface de réponse} ou emph{modèle de substitution}). Il s'agit d'un modèle approchant le modèle numérique de départ, qui nécessite un temps de calcul par lancement nettement diminué par rapport au modèle original. Cette thèse se centre sur l'utilisation d'un métamodèle dans le cadre du calcul des indices de Sobol, plus particulièrement sur la quantification de l'impact du remplacement du modèle par un métamodèle en terme d'erreur d'estimation des indices de Sobol. Nous nous intéressons également à une méthode de construction d'un métamodèle efficace et rigoureux pouvant être utilisé dans le contexte géophysique.

Page generated in 0.0772 seconds