• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 61
  • 12
  • 9
  • 4
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 202
  • 73
  • 60
  • 46
  • 32
  • 32
  • 31
  • 29
  • 27
  • 26
  • 26
  • 25
  • 24
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Quantitative a posteriori error estimators in Finite Element-based shape optimization / Estimations d'erreur a posteriori quantitatives pour l'approximation des problèmes d'optimisation de forme par la méthode des éléments finis

Giacomini, Matteo 09 December 2016 (has links)
Les méthodes d’optimisation de forme basées sur le gradient reposent sur le calcul de la dérivée de forme. Dans beaucoup d’applications, la fonctionnelle coût dépend de la solution d’une EDP. Il s’en suit qu’elle ne peut être résolue exactement et que seule une approximation de celle-ci peut être calculée, par exemple par la méthode des éléments finis. Il en est de même pour la dérivée de forme. Ainsi, les méthodes de gradient en optimisation de forme - basées sur des approximations du gradient - ne garantissent pas a priori que la direction calculée à chaque itération soit effectivement une direction de descente pour la fonctionnelle coût. Cette thèse est consacrée à la construction d’une procédure de certification de la direction de descente dans des algorithmes de gradient en optimisation de forme grâce à des estimations a posteriori de l’erreur introduite par l’approximation de la dérivée de forme par la méthode des éléments finis. On présente une procédure pour estimer l’erreur dans une Quantité d’Intérêt et on obtient une borne supérieure certifiée et explicitement calculable. L’Algorithme de Descente Certifiée (CDA) pour l’optimisation de forme identifie une véritable direction de descente à chaque itération et permet d’établir un critère d’arrêt fiable basé sur la norme de la dérivée de forme. Deux applications principales sont abordées dans la thèse. Premièrement, on considère le problème scalaire d’identification de forme en tomographie d’impédance électrique et on étudie différentes estimations d’erreur. Une première approche est basée sur le principe de l’énergie complémentaire et nécessite la résolution de problèmes globaux additionnels. Afin de réduire le coût de calcul de la procédure de certification, une estimation qui dépend seulement de quantités locales est dérivée par la reconstruction des flux équilibrés. Après avoir validé les estimations de l’erreur pour un cas bidimensionnel, des résultats numériques sont présentés pour tester les méthodes discutées. Une deuxième application est centrée sur le problème vectoriel de la conception optimale des structures élastiques. Dans ce cadre figure, on calcule l’expression volumique de la dérivée de forme de la compliance à partir de la formulation primale en déplacements et de la formulation duale mixte pour l’équation de l’élasticité linéaire. Quelques résultats numériques préliminaires pour la minimisation de la compliance sous une contrainte de volume en 2D sont obtenus à l’aide de l’Algorithme de Variation de Frontière et une estimation a posteriori de l’erreur de la dérivée de forme basée sur le principe de l’énergie complémentaire est calculée. / Gradient-based shape optimization strategies rely on the computation of the so-called shape gradient. In many applications, the objective functional depends both on the shape of the domain and on the solution of a PDE which can only be solved approximately (e.g. via the Finite Element Method). Hence, the direction computed using the discretized shape gradient may not be a genuine descent direction for the objective functional. This Ph.D. thesis is devoted to the construction of a certification procedure to validate the descent direction in gradient-based shape optimization methods using a posteriori estimators of the error due to the Finite Element approximation of the shape gradient.By means of a goal-oriented procedure, we derive a fully computable certified upper bound of the aforementioned error. The resulting Certified Descent Algorithm (CDA) for shape optimization is able to identify a genuine descent direction at each iteration and features a reliable stopping criterion basedon the norm of the shape gradient.Two main applications are tackled in the thesis. First, we consider the scalar inverse identification problem of Electrical Impedance Tomography and we investigate several a posteriori estimators. A first procedure is inspired by the complementary energy principle and involves the solution of additionalglobal problems. In order to reduce the computational cost of the certification step, an estimator which depends solely on local quantities is derived via an equilibrated fluxes approach. The estimators are validated for a two-dimensional case and some numerical simulations are presented to test the discussed methods. A second application focuses on the vectorial problem of optimal design of elastic structures. Within this framework, we derive the volumetric expression of the shape gradient of the compliance using both H 1 -based and dual mixed variational formulations of the linear elasticity equation. Some preliminary numerical tests are performed to minimize the compliance under a volume constraint in 2D using the Boundary Variation Algorithm and an a posteriori estimator of the error in the shape gradient is obtained via the complementary energy principle.
92

Equations aux dérivées partielles et systèmes dynamiquesappliqués à des problèmes issus de la physique et de la biologie / Partial differential equations and dynamical systems applied to problems coming from physics and biology

Breden, Maxime 10 July 2017 (has links)
Cette thèse s'inscrit dans le vaste domaine des équations aux dérivées partielles et des systèmes dynamiques, et s'articule autour de deux sujets distincts. Le premier est relié à l'étude des équations de coagulation-fragmentation discrètes avec diffusion. En utilisant des lemmes de dualité, on établit de nouvelles estimations $L^p$ pour des moments polynomiaux associés aux solutions, sous une hypothèse de convergence des coefficients de diffusion. Ces estimations sur les moments permettent ensuite d'obtenir de nouveaux résultats de régularité, et de démontrer qu'une fragmentation suffisamment forte peut empêcher la gelation dans le modèle incluant la diffusion. Le second sujet est celui des preuves assistées par ordinateur dans le domaine des systèmes dynamiques. On améliore et on applique une méthode basée sur le théorème du point fixe de Banach, permettant de valider a posteriori des solutions numériques. Plus précisément, on élargit le cadre d'application de cette méthode pour inclure des opérateurs avec un terme dominant linéaire tridiagonal, on perfectionne une technique permettant de calculer et de valider des variétés invariantes, et on introduit une nouvelle technique qui améliore de manière significative l'utilisation de l'interpolation polynomiale dans le cadre de ces méthodes de preuves assistées par ordinateur. Ensuite, on applique ces techniques pour démontrer l'existence d'ondes progressives pour l'équation du pont suspendu, et pour étudier les états stationnaires non homogènes d'un système de diffusion croisée. / This thesis falls within the broad framework of partial differential equations and dynamical systems, and focuses more specifically on two independent topics. The first one is the study of the discrete coagulation-fragmentation equations with diffusion. Using duality lemma we establish new $L^p$ estimates for polynomial moments of the solutions, under an assumption of convergence of the diffusion coefficients. These moment estimates are then used to obtain new results of smoothness and to prove that strong enough fragmentation can prevent gelation even in the diffusive case. The second topic is the one of computer-assisted proofs for dynamical systems. We improve and apply a method enabling to a posteriori validate numerical solutions, which is based on Banach's fixed point theorem. More precisely, we extend the range of applicability of the method to include operators with a dominant linear tridiagonal part, we improve an existing technique allowing to compute and validate invariant manifolds, and we introduce an new technique that significantly improves the usage of polynomial interpolation for a posteriori validation methods. Then, we apply those techniques to prove the existence of traveling waves for the suspended bridge equation, and to study inhomogeneous steady states of a cross-diffusion system.
93

Sur l'utilisation de l'analyse isogéométrique en mécanique linéaire ou non-linéaire des structures : certification des calculs et couplage avec la réduction de modèle PGD / On the use of isogeometric analysis in linear or nonlinear structural mechanics : certification of the simulations and coupling with PGD model reduction

Thai, Hoang phuong 17 June 2019 (has links)
Le sujet de la thèse porte sur la mise en place d’approches numériques avancées pour la simulation et l’optimisation de structures mécaniques présentant une géométrie complexe. Il se focalise sur l’analyse isogéométrique (IGA) qui a reçu beaucoup d’intérêt cette dernière décennie dû à sa grande flexibilité, précision, et robustesse dans de nombreux contextes industriels comparé à la méthode des éléments finis (FEA) classique. En particulier, la technologie IGA fournit un lien direct avec les logiciels de CAO (les mêmes fonctions sont utilisées pour la représentation de la géométrie et l’analyse numérique) et facilite les procédures de maillage.Dans ce contexte, et comme première partie du travail, une méthode de vérification basée sur la dualité et le concept d’erreur en relation de comportement (ERC) est proposé. Il permet d’obtenir des estimateurs d’erreur a posteriori à la fois garantis et entièrement calculables pour les solutions numériques issues de simulation par IGA. Ces estimateurs, valables pour une large gamme de modèles linéaires ou non-linéaires en mécanique des structures, constituent donc des outils performants et utiles pour le contrôle quantitatif de la qualité numérique et pour la conduite de procédures adaptatives. Un intérêt particulier est porté sur la construction de champs équilibrés, qui est un point clé du concept ERC, et qui jusqu’à présent était essentiellement développée dans le cadre de la méthode des éléments finis. L’extension au contexte IGA nécessite d’aborder plusieurs problèmes techniques, liés à l’utilisation de fonctions de base B-Spline/NURBS. Le concept ERC est aussi mis en oeuvre avec les techniques d’adjoint pour faire de l’estimation d’erreur sur des quantités d’intérêt.Dans une seconde partie du travail, la technologie IGA est couplée avec une procédure de réduction de modèle pour obtenir des solutions certifiées, et en temps réel, de problèmes avec une géométrie paramétrée. Après avoir défini le paramétrage sur la transformation permettant de passer de l’espace paramétrique IGA à l’espace physique, un modèle réduit basé sur la technique PGD (Proper Generalized Decomposition) est introduit pour résoudre le problème multi-dimensionnel. Avec une stratégie hors-ligne/en-ligne, la procédure permet alors de décrire l’ensemble des solutions paramétrées avec un coût de calcul réduit, et de faire de l’optimisation de forme en temps réel. Ici encore, l’estimation a posteriori des diverses sources d’erreur venant de la discrétisation et de la réduction de modèle PGD est menée à partir du concept ERC. Cela permet de contrôler la qualité de la solution PGD approchée (globalement ou sur des quantités d’intérêt), pour toute configuration géométrique, et de nourrir un algorithme adaptatif qui optimise l’effort de calcul pour une tolérance d’erreur donnée.Le travail de recherche dans son ensemble fournit donc des outils pertinents et pratiques pour les activités de simulation en ingénierie mécanique. Le potentiel et les performances de ces outils sont montrés à travers plusieurs exemples numériques impliquant des problèmes académiques et industriels, et des modèles linéaires et non-linéaires (endommagement). / The topic of the PhD thesis deals with the construction of advanced numerical approaches for the simulation and optimization of mechanical structures with complex geometry. It focuses on the Isogeometric Analysis (IGA) technology which has received much attention of the last decade due to its increased flexibility, accuracy, and robustness in many engineering simulations compared to classical Finite Element Analysis (FEA). In particular, IGA enables a direct link with CAD software (the same functions are used for both analysis and geometry) and facilitates meshing procedures.In this framework, and as a first part of the work, a verification method based on duality and the concept of Constitutive Relation Error (CRE) is proposed. It enables to derive guaranteed and fully computable a posteriori error estimates on the numerical solution provided by IGA. Such estimates, which are valid for a wide class of linear or nonlinear structural mechanics models, thus constitute performing and useful tools to quantitatively control the numerical accuracy and drive adaptive procedures. The focus here is on the construction of equilibrated flux fields, which is key ingredient of the CRE concept, and which was until now almost exclusively developed in the FEA framework alone. The extension to IGA requires to address some technical issues, due to the use of B-Spline/NURBS basis functions. The CRE concept is also implemented together with adjoint techniques in order to perform goal-oriented error estimation.In a second part, IGA is coupled with model reduction in order to get certified real-time solutions to problems with parameterized geometry. After defining the parametrization on the mapping from the IGA parametric space to the physical space, a reduced model based on the Proper Generalized Decomposition (PGD) is introduced to solve the multi-dimensional problem. From an offline/online strategy, the procedure then enables to describe the manifold of parametric solutions with reduced CPU cost, and to further perform shape optimization in real-time. Here again, a posteriori estimation of the various error sources inheriting from discretization and PGD model reduction is performed from the CRE concept. It enables to control the quality of the approximate PGD solution (globally or on outputs of interest), for any geometry configuration, and to feed a robust greedy algorithm that optimizes the computational effort for a prescribed error tolerance.The overall research work thus provides for reliable and practical tools in mechanical engineering simulation activities. Capabilities and performance of these tools are shown on several numerical experiments with academic and engineering problems, and with linear and nonlinear (damage) models.
94

Multiscale Methods and Uncertainty Quantification

Elfverson, Daniel January 2015 (has links)
In this thesis we consider two great challenges in computer simulations of partial differential equations: multiscale data, varying over multiple scales in space and time, and data uncertainty, due to lack of or inexact measurements. We develop a multiscale method based on a coarse scale correction, using localized fine scale computations. We prove that the error in the solution produced by the multiscale method decays independently of the fine scale variation in the data or the computational domain. We consider the following aspects of multiscale methods: continuous and discontinuous underlying numerical methods, adaptivity, convection-diffusion problems, Petrov-Galerkin formulation, and complex geometries. For uncertainty quantification problems we consider the estimation of p-quantiles and failure probability. We use spatial a posteriori error estimates to develop and improve variance reduction techniques for Monte Carlo methods. We improve standard Monte Carlo methods for computing p-quantiles and multilevel Monte Carlo methods for computing failure probability.
95

Etude de schemas numeriques pour des modeles de propagation d'ondes en milieux heterogenes

Sei, Alain 02 October 1991 (has links) (PDF)
Les methodes d'inversion par moindres carres necessitent la simulation de propagation d'ondes modelisees par des equations lineaires. C'est dans cette partie modelisation que se situe la majeure partie de notre travail qui comporte quatre chapitres. Dans le premier chapitre, nous etudions l'inversion d'un milieu localement perturbe, c'est a dire que nous recherchons une heterogeneite de forme donnee dans une matrice homogene. Nous montrons dans ce cas simple l'influence de la frequence de la source sur la non-linearite de la fonction cout. Dans le second chapitre, nous introduisons et analysons une famille de schemas numeriques pour l'equation des ondes acoustiques en milieu homogene. Ces schemas d'ordre sont deux ou quatre en temps et d'ordre quelconque en espace. Nous avons estime le cout informatique des simulations et preconise un choix du nombre de points par longueur d'onde et du nombre de points par periode. Ceci donne alors les pas d'espace et de temps. Dans le troisieme chapitre nous etudions la stabilite et la precision de cette famille de schemas numeriques en milieu heterogene. Nous obtenons des resultats quelque soit l'heterogeneite du milieu, et donnons l'ordre d'approximation de ces schemas numeriques en milieux heterogenes. Nous etudions egalement les condition absorbantes eponges. Dans le dernier chapitre nous nous sommes interesse a une estimation d'erreur a posteriori pour l'equation des ondes en milieu unidimensionnel. Ces estimations sont generalisables au cas bidimensionnel. Elles permettent de mesurer l'erreur commise sur la solution a l'aide de quantites calculables; donc on peut par procedure adaptive regler les pas de temps et d'espace.
96

Simulation numérique des écoulements de liquides polymères

Joie, Julie 25 November 2010 (has links) (PDF)
Il existe peu de codes commerciaux pour la simulation numérique des écoulements de liquides polymères. Les difficultés proviennent des propriétés intrinsèques des polymères, qui sont des fluides viscoélastiques non-newtoniens. Ceci implique un couplage entre la viscoélasticité du liquide et l'écoulement, couplage quantifié par le nombre de Weissenberg. D'un point de vue numérique, la source du problème est la perte de convergence des algorithmes lorsque ce nombre devient trop élevé. Cette thèse porte sur le développement de schémas numériques robustes pour la simulation de ces écoulements en considérant principalement le modèle de Giesekus. Nous nous sommes d'abord intéressés au problème de Stokes et nous avons fait l'étude d'une méthode de Galerkin discontinue moins coûteuse et plus robuste que la méthode "Interior Penalty" classique. Nous avons fait une analyse a priori et a posteriori et nous avons mis en évidence les relations entre cette méthode dG et les éléments finis non-conformes. Les résultats théoriques obtenus ont été validés numériquement. Par la suite, nous avons considéré le modèle à trois champs de Giesekus. La vitesse et la pression sont approchées par éléments finis non-conformes tandis que l'équation constitutive est traitée à l'aide d'éléments finis discontinus et d'un schéma décentré de type Lesaint-Raviart. L'analyse de ces schémas dans le cas quadrangulaire et triangulaire a été faite pour le problème de Stokes sous-jacent. Ces schémas ont ensuite été implémentés dans la librairie C++ Concha. Nous avons effectué des comparaisons avec des données expérimentales mettant en évidence le bon comportement du modèle de Giesekus mais aussi avec le code commercial Polyflow et une solution semi-analytique afin de valider nos schémas numériques. Nous avons obtenu des simulations réalistes pour des nombres de Weissenberg élevés sur des cas-tests populaires : écoulement autour d'un cylindre, contractions 4:1 et 4:1:4
97

Large eddy simulations of compressible magnetohydrodynamic turbulence

Grete, Philipp 09 September 2016 (has links)
No description available.
98

Computação bayesiana aproximada: aplicações em modelos de dinâmica populacional / Approximate Bayesian Computation: applications in population dynamics models

Martins, Maria Cristina 29 September 2017 (has links)
Processos estocásticos complexos são muitas vezes utilizados em modelagem, com o intuito de capturar uma maior proporção das principais características dos sistemas biológicos. A descrição do comportamento desses sistemas tem sido realizada por muitos amostradores baseados na distribuição a posteriori de Monte Carlo. Modelos probabilísticos que descrevem esses processos podem levar a funções de verossimilhança computacionalmente intratáveis, impossibilitando a utilização de métodos de inferência estatística clássicos e os baseados em amostragem por meio de MCMC. A Computação Bayesiana Aproximada (ABC) é considerada um novo método de inferência com base em estatísticas de resumo, ou seja, valores calculados a partir do conjunto de dados (média, moda, variância, etc.). Essa metodologia combina muitas das vantagens da eficiência computacional de processos baseados em estatísticas de resumo com inferência estatística bayesiana uma vez que, funciona bem para pequenas amostras e possibilita incorporar informações passadas em um parâmetro e formar uma priori para análise futura. Nesse trabalho foi realizada uma comparação entre os métodos de estimação, clássico, bayesiano e ABC, para estudos de simulação de modelos simples e para análise de dados de dinâmica populacional. Foram implementadas no software R as distâncias modular e do máximo como alternativas de função distância a serem utilizadas no ABC, além do algoritmo ABC de rejeição para equações diferenciais estocásticas. Foi proposto sua utilização para a resolução de problemas envolvendo modelos de interação populacional. Os estudos de simulação mostraram melhores resultados quando utilizadas as distâncias euclidianas e do máximo juntamente com distribuições a priori informativas. Para os sistemas dinâmicos, a estimação por meio do ABC apresentou resultados mais próximos dos verdadeiros bem como menores discrepâncias, podendo assim ser utilizado como um método alternativo de estimação. / Complex stochastic processes are often used in modeling in order to capture a greater proportion of the main features of natural systems. The description of the behavior of these systems has been made by many Monte Carlo based samplers of the posterior distribution. Probabilistic models describing these processes can lead to computationally intractable likelihood functions, precluding the use of classical statistical inference methods and those based on sampling by MCMC. The Approxi- mate Bayesian Computation (ABC) is considered a new method for inference based on summary statistics, that is, calculated values from the data set (mean, mode, variance, etc.). This methodology combines many of the advantages of computatio- nal efficiency of processes based on summary statistics with the Bayesian statistical inference since, it works well for small samples and it makes possible to incorporate past information in a parameter and form a prior distribution for future analysis. In this work a comparison between, classical, Bayesian and ABC, estimation methods was made for simulation studies considering simple models and for data analysis of population dynamics. It was implemented in the R software the modular and maxi- mum as alternative distances function to be used in the ABC, besides the rejection ABC algorithm for stochastic differential equations. It was proposed to use it to solve problems involving models of population interaction. The simulation studies showed better results when using the Euclidean and maximum distances together with informative prior distributions. For the dynamic systems, the ABC estimation presented results closer to the real ones as well as smaller discrepancies and could thus be used as an alternative estimation method.
99

Diagramas de influência e teoria estatística / Influence Diagrams and Statistical Theory

Stern, Rafael Bassi 09 January 2009 (has links)
O objetivo principal deste trabalho foi analisar o controverso conceito de informação em estatística. Para tal, primeiramente foi estudado o conceito de informação dado por Basu. A seguir, a análise foi dividida em três partes: informação nos dados, informação no experimento e diagramas de influência. Nas duas primeiras etapas, sempre se tentou definir propriedades que uma função de informação deveria satisfazer para se enquadrar ao conceito. Na primeira etapa, foi estudado como o princípio da verossimilhança é uma classe de equivalência decorrente de acreditar que experimentos triviais não trazem informação. Também foram apresentadas métricas que satisfazem o princípio da verossimilhança e estas foram usadas para avaliar um exemplo intuitivo. Na segunda etapa, passamos para o problema da informação de um experimento. Foi apresentada a relação da suficiência de Blackwell com experimentos triviais e o conceito usual de suficiência. Também foi analisada a equivalência de Blackwell e a sua relação com o Princípio da Verossimilhança anteriormente estudado. Além disso, as métricas apresentadas para medir a informação de conjuntos de dados foram adaptadas para também medir a informação de um experimento. Finalmente, observou-se que nas etapas anteriores uma série de simetrias mostraram-se como elementos essenciais do conceito de informação. Para ganhar intuição sobre elas, estas foram reescritas através da ferramenta gráfica dos diagramas de influência. Assim, definições como suficiência, suficiência de Blackwell, suficiência mínima e completude foram reapresentadas apenas usando essa ferramenta. / The main objective of this work is to analyze the controversial concept of information in Statistics. To do so, firstly the concept of information according to Basu is presented. Next, the analysis is divided in three parts: information in a data set, information in an experiment and influence diagrams. In the first two parts, we always tried to define properties an information function should satisfy in order to be in accordance to the concept of Basu. In the first part, it was studied how the likelihood principle is an equivalence class which follows from believing that trivial experiments do not bring information. Metrics which satisfy the likelihood principle were also presented and used to analyze an intuitive example. In the second part, the problem became that of determining information of a particular experiment. The relation between Blackwell\'s suciency, trivial experiments and classical suciency was presented. Blackwell\'s equivalence was also analyzed and its relationship with the Likelihood Principle was exposed. The metrics presented to evaluate the information in a data set were also adapted to do so with experiments. Finally, in the first parts a number of symmetries were shown as essencial elements of the concept of information. To gain more intuition about these elements, we tried to rewrite them using the graphic tool of influence diagrams. Therefore, definitions as sufficiency, Blackwell\'s sufficiency, minimal sufficiency and completeness were shown again, only using influence diagrams.
100

Simulation numérique multidimensionnelle d'écoulements estuariens

Pétrau, Agnès 07 December 2009 (has links) (PDF)
On s'intéresse dans cette thèse à la modélisation et à la simulation multidimensionnelle de l'hydrodynamique fluviale, notamment près des estuaires. Le modèle physique de référence est le modèle 3D, mais au vu de son important coût de calcul, il est intéressant de disposer de modèles plus simples en 1D, 2D ou 2.5D, que l'on peut utiliser dans des zones adéquates du fleuve, en fonction de sa bathymétrie. Ainsi, à partir du modèle 3D basé sur les équations instationnaires et incompressibles de Navier-Stokes, des modèles plus simples sont dérivés par projection par formulations faibles du problème 3D. On obtient ainsi un modèle en 1D, écrit sur la courbe médiane de la surface libre du fleuve, ainsi que deux modèles en 2D, le 2D-vertical écrit sur la surface longitudinale médiane du fleuve et le 2D-horizontal écrit sur la surface libre. Enfin on définit un modèle en quasi-3D, le modèle 2.5D, écrit dans la somme des espaces 2D-vertical et 2D-horizontal. Tous ces modèles prennent en compte la géométrie du fleuve et fournissent une vitesse tridimensionnelle ainsi que la pression, qui n'est pas supposée hydrostatique mais qui est une inconnue entière du problème. En outre, on définit et justifie un estimateur de modèles entre le modèle 3D et chacune de ses approximations en 1D, 2D et 2.5D. Cet estimateur calcule l'erreur entre le modèle 3D et son approximation, et donne ainsi une indication sur la qualité des résultats obtenus à partir des modèles 1D, 2D ou 2.5D, dans leurs zones respectives de calcul. Tous ces modèles hydrodynamiques sont implémentés dans des codes d'éléments finis, écrits en C++. Enfin, ils sont couplés numériquement à l'aide de l'estimateur de modèles.

Page generated in 0.0455 seconds