• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 29
  • 3
  • Tagged with
  • 112
  • 112
  • 112
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Amélioration du calcul de dose TG-43 en curiethérapie à bas débit par un algorithme de dose primaire et diffusée sur processeur graphique

Bourque, Alexandre 19 April 2018 (has links)
Les calculs de dose en curiethérapie à bas débit reposent depuis 1995 sur un formalisme qui considère le milieu irradié comme étant homogène et constitué d’eau afin de mieux accommoder les temps de calcul clinique. Ce travail présente une amélioration de ce formalisme dosimétrique issu du protocole TG-43 de l’AAPM (American Association of Physicists in Medicine), utilisé actuellement dans les systèmes de planification de traitement (SPT) clinique. Avec l’ajout d’un tracé radiologique pour tenir compte des hétérogénéités et en séparant la dose primaire de la dose diffusée, il est possible de raffiner les calculs dosimétriques. Or, cette modification au calcul le rendant plus complexe était coûteuse en temps d’exécution jusqu’à très récemment. Elle se voit matérialisée dans ce travail avec l’arrivée récente de la technologie GPGPU, les calculs scientifiques sur périphériques graphiques. En exploitant le parallélisme des calculs de dose en curiethérapie à bas débit pour les implants permanents, l’algorithme baptisé TG-43-RT pour TG-43 avec tracé de rayons (Ray-Tracing en anglais) permet d’obtenir des facteurs d’accélération de l’ordre de 103 par rapport au CPU. Seulement 0.5 s par source est requis dans une géométrie de 1003 voxels, et les dosimétries d’anatomies hétérogènes sont sensiblement améliorées. Le TG-43-RT corrige les dépôts de dose en aval des hétérogénéités et réduit les effets indésirables de l’atténuation inter-sources. Des écarts de dose de plus de 80% au-delà d’une calcification avaient de quoi influencer les HDV, or, le TG-43-RT ramène ces déviations en-deçà de l’incertitude de 8.7% (2σ) concédée par les SPT, tel qu’établi dans le TG-138. Les simulations Monte Carlo ont été employées pour servir de référence absolue à la méthode développée et quantifier les améliorations dosimétriques relatives à l’actuel calcul de dose. L’algorithme a été testé d’un point de vue clinique dans un fantôme de prostate avec des sources d’125I et dans un fantôme de sein avec des sources de 103Pd pour unifier les corrections apportées. / Brachytherapy dose calculations have been relying since 1995 on a formalism that considers the whole geometry as a homogeneous water tank. This gives the opportunity to compute dose distributions within a reasonable clinical timeframe, but with considerable approximations that can influence or even change the treatment. This work presents an upgraded version of this formalism derived from the TG-43 protocol (AAPM), currently used in actual treatment planning systems. The new algorithm includes a primary and scatter dose separation using ray-tracing operation to account for heterogeneities through the medium. These modifications to the dose calculation are very power consuming and too long for the clinical needs when executed on modern CPUs. With the GPGPU technology, a GPU-driven algorithm allows a complex handling of the anatomic heterogeneities in the dose calculation and keeps execution times below 0.5 s/seed. The algorithm was named TG-43-RT for TG-43 with Ray-Tracing and accelerations factors of three order of magnitude were obtained over a regular CPU implementation. The TG-43-RT algorithm adequatly corrects dose deposition along heterogeneities and it reduces interseed attenuation effects. Dose is scored in the medium instead of water, which also applies a severe correction for high heterogeneous medium like the breast. Deviations of more than 80% in dose deposition were obtained over calcification inside the prostate when compared to Monte Carlo simulations. This kind of deviation influences DVH shape. However, the TG-43-RT was keeping those deviations within the 8.7% uncertainty range (2σ) associated with a regular TG-43 evaluation as stated in the TG-138. Monte Carlo simulations were used as a gold standard to get an absolute dose calculation reference. The algorithm was also tested in a prostate phantom with 125I seeds and in a breast phantom with 103Pd seeds to mimic real anatomic geometries and unify the applied corrections.
52

Élaboration des éléments d'une simulation Monte Carlo permettant l'évaluation d'une planification de traitement en radiothérapie externe : compression d'images DICOM à l'aide d'un octree et modélisation de la tête d'un accélérateur linéaire

Hubert-Tremblay, Vincent 11 April 2018 (has links)
L'objectif de ce travail est de développer deux modules pour créer une simulation Monte Carlo ayant comme objectif futur de calculer les doses de radiation d'un traitement en radiothérapie externe. Le premier module permet de lire, modéliser et réduire le nombre de voxels présent dans une série d'images médicales de type DICOM. La réduction doit se faire tout en gardant les informations essentielles pour une simulation Monte Carlo. Un algorithme a été développé pour appliquer une compression de type octree à la distribution des densités électroniques recueillies dans les images de tomodensitométrie. L'image résultante possède ainsi une certaine anisotropie au niveau de la résolution. Des résultats obtenus, la réduction du nombre total de voxels atteinte est de l'ordre de 75% de la taille initiale. Les simulations Monte Carlo démontrent qu'aucune information dosimétrique n'est perdue après la transformation. L'efficacité de la simulation se trouve améliorée tant au niveau de sa rapidité que de son utilisation de la mémoire. Le second module développé est un modèle d'accélérateur linéaire de type Primus (Siemens). Ce modèle permet d'obtenir des distributions de doses pour deux faisceaux de photons d'énergies différentes (6 et 23 megavolts [MV]). Dans les deux cas, les distributions de doses ont été comparées à des mesures expérimentales prises avec une chambre à ionisation. Les distributions de doses dans l'axe central du faisceau ont atteint un niveau de précision de 2%. Au niveau des distributions de doses hors axe, les déviations maximales sont de l'ordre de 5% et de 2mm dans les pénombres. Pour le faisceau de 23 MV, la géométrie présente une asymétrie qui devra être corrigée en modifiant le filtre égalisateur ou en utilisant une source de radiation asymétrique. Dans tous les cas, l'ouverture des collimateurs secondaires devra être optimisée afin d'éliminer les erreurs au niveau de la pénombre. Une fois ces modifications effectuées, les images DICOM compressées avec l'octree pourront être insérées à l'intérieur du modèle de l'accélérateur. Ce faisant, il suffirait d'ajuster la configuration des faisceaux et du patient pour évaluer un traitement en radiothérapie externe.
53

Modélisation neutronique des réacteurs à lit de boulets dans le code APOLLO2

Grimod, Maurice 07 December 2010 (has links) (PDF)
DANS LA THÈSE, UNE NOUVELLE TECHNIQUE ITÉRATIVE D'HOMOGÉNÉISATION POUR LES RÉACTEURS À LIT DE BOULETS EST DÉVELOPPÉE. LE MODÈLE CONSIDÈRE LES DIFFÉRENCES SPECTRALES, PROPRES À CHAQUE TYPE DE BOULET, POUR LES CALCULS D'HOMOGÉNÉISATION ET D'ÉVOLUTION MICROSCOPIQUE. LA MÉTHODE DÉVELOPPÉE DANS LE CODE DE CALCUL NEUTRONIQUE APOLLO2 A ÉTÉ VÉRIFIÉE PAR COMPARAISON AVEC DES SIMULATIONS MONTE CARLO DE RÉFÉRENCE, AVEC TRIPOLI4. LES RÉSULTATS OBTENUS PAR LE MODÈLE APOLLO2 SONT PEU DIFFÉRENTS DE LA RÉFÉRENCE (MOINS DE 100 PCM SUR LE KEFF, DE ±4% SUR LA DISTRIBUTION DES TAUX DE PRODUCTION, AVEC UNE DIFFÉRENCE DE 3% AU POINT CHAUD). ENSUITE, UNE PREMIÈRE VALIDATION A ÉTÉ RÉALISÉE PAR RAPPORT À LA PREMIÈRE DIVERGENCE DU PROTOTYPE HTR-10. LE NOMBRE OBTENU AVEC LE NOUVEAU MODÈLE EST SEULEMENT DE 77 BOULETS EN DESSOUS DE LA VALEUR EXPÉRIMENTAL DE 16890 BOULETS. UNE MÉTHODE A ENSUITE ÉTÉ DÉVELOPPÉE POUR ÉVALUER LA COMPOSITION DU CŒUR À L'ÉQUILIBRE, LIÉE À LA RÉ-CIRCULATION DES BOULETS. LA NOUVELLE MÉTHODE A ÉTÉ APPLIQUÉE POUR ÉVALUER LE BIAIS ASSOCIÉ À L'EMPLOI D'UN SEUL BOULET DE COMPOSITION ISOTOPIQUE MOYENNE. LES DIFFÉRENCES SPECTRALES ENTRE LES DIFFÉRENTS TYPES DE BOULETS ÉTANT EN GRANDE PARTIE DUES AUX RÉSONANCES DU PU240, LE BIAIS EST PLUS IMPORTANT QUAND LE CŒUR EST CHARGÉ AVEC UN COMBUSTIBLE DE PU, OÙ ON OBSERVE DES ÉCARTS SUR LES DISTRIBUTIONS DE PUISSANCES ET LES CONCENTRATIONS DE ± 10%. POUR CONCLURE, EN SE BASANT SUR L'EXPÉRIENCE ACCUMULÉE AU CEA ET AVEC LA MÉTHODE DÉVELOPPÉE ICI, ON POURRAIT MONTER UN SCHÉMA ITÉRATIF DE CALCUL COUPLÉ NEUTRONIQUE - THERMO-HYDRAULIQUE, EN CALCULANT LE CŒUR 3D EN DIFFUSION ET EN ASSOCIANT À CHAQUE RÉGION DE SPECTRE UNE GÉOMÉTRIE MULTI-BOULETS.
54

Modélisation markovienne des dynamiques d'usages des sols. Cas des parcelles situées sur le bord du corridor forestier {Ranomafana-Andringitra}

Raherinirina, Angelo 08 February 2013 (has links) (PDF)
Nous proposons une démarche markovienne d'inférence et de modéli- sation de dynamiques agraires dans le cadre d'usage de parcelles situées en lisière du corridor forestier reliant les deux parcs nationaux de Ranomafana et d'An- dringitra. La préservation de la forêt de la côte est de Madagascar est cruciale, il est donc pertinent de développer des outils permettant de mieux comprendre les dynamiques de déforestation puis de l'usage des parcelles et enfin de leur éventuel retour à l'état de forêt. Nous nous appuyons sur deux jeux de don- nées de terrain établis par l'IRD. Dans ce genre d'étude, une étape préliminaire consiste à construire la matrice de transition empirique, cela s'apparente donc à une modélisation markovienne de la dynamique. Dans ce cadre nous considérons l'approche par maximum de vraisemblance et l'approche bayésienne. Cette der- nière approche nous permet d'intégrer des informations non-présentes dans les données mais reconnues par les spécialistes, elle fait appel à des techniques d'ap- proximation de Monte Carlo par chaînes de Markov (MCMC). Nous étudions les propriétés asymptotiques des modèles obtenus à l'aide de ces deux approches et notamment le temps de convergence vers la loi quasi-stationnaire dans le premier cas et vers la loi stationnaire dans le second. Nous testons différentes hypothèses portant sur les modèles. Cette approche markovienne n'est plus valide sur le deuxième jeu de données, plus étendu, où il a fallu faire appel à une approche semi-markovienne : les lois des temps de séjour dans un état donné ne sont plus né- cessairement géométriques et peuvent dépendre de l'état suivant. À nouveau nous faisons appel aux approches par maximum de vraisemblance et bayésienne. Nous étudions le comportement asymptotique de chacun de ces modèles. En termes applicatifs, nous avons pu déterminer les échelles de temps de ces dynamiques.
55

Approximation particulaire et méthode de Laplace pour le filtrage bayésien / Particle approximation and the Laplace method for Bayesian filtering

Bui Quang, Paul 01 July 2013 (has links)
La thèse porte sur l'apport de la méthode de Laplace pour l'approximation du filtre bayésien dans des modèles de Markov cachés généraux, c'est-à-dire dans un cadre séquentiel, avec comme domaine d'application privilégié la poursuite de cibles mobiles. A la base, la méthode de Laplace est une méthode asymptotique pour le calcul d'intégrales, c'est-à-dire dans un cadre statique, valide en théorie dès que la fonction à intégrer présente un maximum de plus en plus significatif, lequel apporte la contribution essentielle au résultat. En pratique, cette méthode donne des résultats souvent très précis même en dehors de ce cadre de validité théorique. Les deux contributions principales de la thèse sont les suivantes. Premièrement, nous avons utilisé la méthode de Laplace en complément du filtrage particulaire : on sait en effet que les méthodes de Monte Carlo séquentielles basées sur l'échantillonnage pondéré sont mises en difficulté quand la fonction de pondération (ici la fonction de vraisemblance) est trop localisée, par exemple quand la variance du bruit d'observation est trop faible, or c'est précisément là le domaine où la méthode de Laplace est efficace et justifiée théoriquement, d'où l'idée naturelle de combiner les deux points de vue. Nous proposons ainsi un algorithme associant la méthode de Laplace et le filtrage particulaire, appelé le Laplace particle filter. Deuxièmement, nous avons analysé l'approximation du filtre bayésien grâce à la méthode de Laplace seulement (c'est-à-dire sans génération d'échantillons aléatoires) : il s'agit ici de contrôler la propagation de l'erreur d'approximation d'un pas de temps au pas de temps suivant, dans un cadre asymptotique approprié, par exemple quand le bruit d'observation tend vers zéro, ou quand le bruit d'état et le bruit d'observation tendent conjointement (et à la même vitesse) vers zéro, ou plus généralement quand l'information contenue dans le système tend vers l'infini, avec une interprétation en terme d'identifiabilité. / The thesis deals with the contribution of the Laplace method to the approximation of the Bayesian filter in hidden Markov models with continuous state--space, i.e. in a sequential framework, with target tracking as the main application domain. Originally, the Laplace method is an asymptotic method used to compute integrals, i.e. in a static framework, valid in theory as soon as the function to be integrated exhibits an increasingly dominating maximum point, which brings the essential contribution to the integral. The two main contributions of the thesis are the following. Firstly, we have combined the Laplace method and particle filters: indeed, it is well-known that sequential Monte Carlo methods based on importance sampling are inefficient when the weighting function (here, the likelihood function) is too much spatially localized, e.g. when the variance of the observation noise is too small, whereas this is precisely the situation where the Laplace method is efficient and theoretically justified, hence the natural idea of combining the two approaches. We thus propose an algorithm associating the Laplace method and particle filtering, called the Laplace particle filter. Secondly, we have analyzed the approximation of the Bayesian filter based on the Laplace method only (i.e. without any generation of random samples): the objective has been to control the propagation of the approximation error from one time step to the next time step, in an appropriate asymptotic framework, e.g. when the variance of the observation noise goes to zero, or when the variances of the model noise and of the observation noise jointly go (with the same rate) to zero, or more generally when the information contained in the system goes to infinity, with an interpretation in terms of identifiability.
56

Calculs de sensibilités par méthode de Monte-Carlo, pour la conception de procédés à énergie solaire concentrée / Monte-Carlo Method and sensitivity computations for the design of concentrated solar energy processes

De la Torre, Jérémie 04 February 2011 (has links)
Dans le contexte énergétique mondial de raréfaction des ressources fossiles, et de réduction des émissions de gaz à effet de serre, l’agence internationale de l’énergie prévoit que la filière solaire thermodynamique fournisse en 2050 plus de 10% de l’électricité mondiale. De gros efforts de recherche sont nécessaires pour atteindre cet objectif. Les axes de développement actuels des technologies solaires à concentration portent, entre autres, sur les systèmes optiques composés de multiples miroirs (champs d’héliostats, concentrateurs linéaires de Fresnel, Beam-Down), sur les récepteurs solaires volumétriques (récepteurs à air, lits fluidisés) et sur les réacteurs (chimie à haute température, photobioréacteurs, dessalement par voie thermodynamique). Le transfert d’énergie par rayonnement est un des phénomènes prépondérants dans les systèmes optiques concentrateurs et dans les récepteurs solaires volumétriques. Les laboratoires Rapsodee et Laplace ont développé en quelques années d’étroite collaboration un savoir faire méthodologique sur la modélisation des transferts radiatifs et le calcul de sensibilité par la Méthode de Monte- Carlo et ils ont accumulé une expérience pratique, issue de la synthèse d’image, en programmation scientifique en interaction avec des chercheurs en informatique. Nous montrons dans ce manuscrit dans quelle mesure l’association de ces compétences théoriques et pratiques permet de répondre à certains besoins de la communauté du solaire à concentration et nous donnons des éléments de réponses ou des pistes à explorer en vue de surmonter les difficultés restantes que nous avons rencontrées. / The decrease of the fossil energy resources and the reduction of the emissions of greenhouse effect gas are major environmental issues. In this global situation, the International Energy Agency expects that solar power will provide more than 10% of the world electricity in 2050. Significant research efforts are needed to achieve this goal. Radiative transfer is one of the main physical phenomena in solar optical concentrators and in volumetric solar receivers. In few years of closely work, the laboratories Rapsodee and Laplace developed a methodological know-how in using Monte-Carlo methods for the modeling of radiative transfer and the sensitivity computations. They have also accumulated some experience in scientific programming and algorithms optimisation. We show in this dissertation how the combination of these physicists theoretical and practical skills can meet certain needs of the community of solar concentration. We give some answers or clues to be explored to get through the remaining difficulties we encountered.
57

Cosmological parameter estimation with the Planck satellite data : from the construction of a likelihood to neutrino properties / Estimation des paramètres cosmologiques à partir des données du satellite Planck : de la construction d’une fonction de vraisemblance aux caractéristiques des neutrinos

Spinelli, Marta 28 September 2015 (has links)
Le fond diffus cosmologique (CMB), relique du Big-Bang chaud, porte les traces à la fois de la formation des structures des époques récentes et des premières phases énergétiques de l'Univers.Le satellite Planck, en service de 2009 à 2013, a fourni des mesures de haute qualité des anisotropies du CMB. Celles-ci sont utilisés dans cette thèse pour déterminer les paramètres du modèle cosmologique standard et autour du secteur des neutrinos.Ce travail décrit la construction d'un fonction de vraisemblance pour les hauts-l de Planck. Cela implique une stratégie de masquage pour l'émission thermique de la Galaxie ainsi que pour les sources ponctuelles. Les avant-plans résiduels sont traités directement au niveau du spectre de puissance en utilisant des templates physiques bases sur des études de Planck.Les méthodes statistiques nécessaires pour extraire les paramètres cosmologiques dans la comparaison entre les modèles et les données sont décrites, à la fois la méthode bayésienne de Monte-Carlo par chaînes de Markov et la technique fréquentiste du profil de la fonction de vraisemblance.Les résultats sur les paramètres cosmologiques sont présentés en utilisant les données de Planck seul et en combinaison avec les données à petites échelles des expériences de CMB basées au sol (ACT et SPT), avec les contraintes provenant des mesures des oscillations acoustiques des baryons (BAO) et des supernovae. Les contraintes sur l'échelle absolue de la masse des neutrinos et sur le nombre effectif de neutrinos sont également discutées. / The cosmic microwave background (CMB), relic of the hot Big-Bang, carries the traces of both the rich structure formation of the late time epochs and the energetic early phases of the universe.The Planck satellite provided, from 2009 to 2013, high-quality measurements of the anisotropies of the CMB. These are used in this thesis to determine the parameters of the standard cosmological model and of the extension concerning the neutrino sector. The construction of an high-l Planck likelihood is detailed. This involves a masking strategy that deals in particular with the contamination from thermal emission of the Galaxy. The residual foregrounds are treated directly at the power spectrum level relying on physically motivated templates based on Planck studies.The statistical methods needed to extract the cosmological parameters in the comparison between models and data are described, both the Bayesian Monte Carlo Markov Chain techniques and the frequentist profile likelihood. Results on cosmological parameters are presented using Planck data alone and in combination with the small scale data from the ground based CMB experiment ACT and SPT, the Baryon Acoustic Oscillation and the Supernovae. Constraints on the absolute scale of neutrino masses and of the number of effective neutrino are also discussed.
58

Influence des fautes transitoires sur la fiabilité d'un système commandé en réseau

Ghostine, Rony 12 June 2008 (has links) (PDF)
Ce travail s'inscrit dans le cadre de l'évaluation de la sûreté de fonctionnement des systèmes commandés en réseau (SCR). La capacité des systèmes de commandes à compenser les effets de certaines défaillances de composants amène à redéfinir le concept de défaillances du système. La conséquence est que l'évaluation de la fiabilité prévisionnelle du système est dépendante de l'évaluation fonctionnelle et devient impossible avec les méthodes traditionnelles de la sûreté de fonctionnement. Pour surmonter ces difficultés, une approche basée sur la modélisation en vue de la simulation est proposée. Nous avons choisi les Réseaux d'activités stochastiques (SAN) largement connus dans la modélisation des protocoles de communication ainsi que dans les études de la sûreté de fonctionnement. Dans un premier temps, nous avons cherché à identifier l'incidence de deux types de défaillances fugitives : la perte d'un échantillon d'une part et le retard d'un échantillon dans la boucle de régulation d'autre part. Après, nous simulons le comportement en présence des deux types de perturbations simultanément, mettant en évidence des effets cumulatifs. Si on tient compte maintenant du fait que l'origine des pertes ou retards est due à la présence du réseau, il faut l'introduire dans le modèle. On introduit alors dans le modèle global du système la représentation SAN d'un réseau CAN et l'injection des défaillances dans celui-ci. La méthode de Monte Carlo est utilisée pour estimer les indicateurs de sûreté de fonctionnement et on montre l'influence de certains facteurs comme la charge du réseau par exemple. Nous avons proposé une méthode et les outils associés pour approcher cette évaluation par simulation et ainsi apporter une aide à la conception des systèmes satisfaisant à des exigences critiques sur certains paramètres de performance.
59

Réduction de variance et discrétisation d'équations différentielles stochastiques.<br />Théorèmes limites presque sûre pour les martingales quasi-continues à gauche.

Kebaier, Ahmed 13 December 2005 (has links) (PDF)
Cette Thèse est composée de deux parties portant respectivement sur la discrétisation des équations différentielles stochastiques et sur le théorème de la limite centrale presque sûre pour les martingales.<br /><br />La première Partie est composée de trois chapitres: Le premier chapitre introduit le cadre de l'étude et présente les résultats obtenus. Le deuxième chapitre est consacré à l'étude d'une nouvelle méthode d'accélération de convergence, appelée méthode de Romberg statistique, pour le calcul d'espérances de fonctions ou de fonctionnelles d'une diffusion.<br />Ce chapitre est la version augmentée d'un article à paraître dans la revue Annals of Applied Probability.<br /><br />Le troisième chapitre traite de l'application de cette méthode à l'approximation de densité par des méthodes de noyaux.<br />Ce chapitre est basé sur un travail en collaboration avec Arturo Kohatsu-Higa.<br /><br />La deuxième partie de la thèse est composée de deux chapitres: le premier chapitre présente la littérature récente concernant le théorème de la limite centrale presque sûre et ses extensions. Le deuxième chapitre, basé sur un travail en collaboration avec Faouzi Chaâbane, étend divers résultats de type TLCPS à des martingales quasi-continues à gauche.
60

Modèles multi-échelles pour les fluides viscoélastiques

Lelievre, Tony 21 June 2004 (has links) (PDF)
Ce travail porte principalement sur l'analyse mathématique de modèles multi-échelles pour la simulation de fluides polymériques. Ces modèles couplent, au niveau microscopique, une description moléculaire de l'évolution des chaînes de polymère (sous forme d'une équation différentielle stochastique) avec, au niveau macroscopique, les équations de conservation de la masse et de la quantité de mouvement pour le solvant (sous forme d'équations aux dérivées partielles). Le chapitre 1 introduit les modèles et donne les principaux résultats obtenus. Dans les chapitres 2, 4, 5 et 7 on montre en quel sens les équations sont bien posées pour divers modèles de polymère, en considérant soit des écoulements homogènes, soit des écoulements cisaillés plans. Dans les chapitres 2, 3, 6 et 7, on analyse et on prouve la convergence de méthodes numériques pour ces modèles. Enfin, le chapitre 8 concerne le comportement en temps long du système. Une deuxième partie de ce document est constituée de trois chapitres portant sur un travail en magnétohydrodynamique (MHD), en collaboration avec l'industrie. Le chapitre 9 est une introduction à la problématique ainsi qu'aux méthodes numériques utilisées. Le chapitre 10 décrit un nouveau cas-test en MHD. Enfin, le chapitre 11 donne une analyse de la stabilité du schéma numérique utilisé.

Page generated in 0.0567 seconds