Spelling suggestions: "subject:"deméthodes dde"" "subject:"deméthodes dee""
281 |
La formation du paradigme cybernétique : varias et devenirs en psychopathologie / The formation of the cybernetic paradigm : variants and futures in psychopathologyLe Bars, Alain 12 July 2014 (has links)
Nous étudions les antécédents et la formation du paradigme cybernétique. Nous examinons en particulier comment la cybernétique a considéré les questions posées par la psychopathologie.Nous nous interrogeons ensuite sur la manière dont le paradigme cybernétique a été pris en compte dans le champ de la psychopathologie, particulièrement par la psychanalyse et par la psychologie cognitive. Jacques Lacan se réfère pendant un temps à la cybernétique dans sa construction du registre du symbolique. Certains auteurs cognitivistes désignent la cybernétique aux origines des sciences cognitives.Nous tentons de caractériser les véritables relations épistémologiques que ces deux courants entretiennent avec la cybernétique, en distinguant le niveau des modèles et le niveau des paradigmes / We are studying the antecedents and the formation of the cybernetic paradigm. We examine more specifically how cybernetics considered the questions asked by psychopathology.We then wonder how the cybernetic paradigm has been considered in the field of psychopathology, particularly by psychoanalysis and cognitive psychology. Jacques Lacan has durably referred to cybernetics in his construction of the symbolic register. Some cognitivist authors even consider cybernetics as the origins of cognitive sciences.We attempt to define the real epistemological relationships that these two currents entertain with cybernetics, while categorizing the level of models and the level of paradigms.
|
282 |
Synthèse automatique d'architectures tolérantes aux fautes / Automatic synthesis of fault tolerant archictecturesDelmas, Kévin 19 December 2017 (has links)
La sûreté de fonctionnement occupe une place prépondérante dans la conception de systèmes critiques, puisqu'un dysfonctionnement peut être dangereux pour les utilisateurs ou l'environnement. Les concepteurs doivent également démontrer aux autorités de certification que les risques encourus sont acceptables. Pour cela, le concepteurs définissent une architecture contenant un ensemble de mécanismes de sûreté permettant de mitiger ou tout du moins limiter la probabilité d’occurrence des risques identifiés. L'objectif de ce travail est de développer une méthode automatique et générique de synthèse d’architecture assurant formellement le respect d’exigences de sûreté. Cette activité de synthèse est formalisée comme un problème d'exploration de l'espace des architectures c'est-à-dire trouver un candidat appartenant à un espace de recherche fini, respectant les exigences de sûreté. Ainsi nous proposons un processus de résolution complet et correct des problèmes d'exploration basé sur l'utilisation des solveurs SMT. Les contributions principales sont:1- La formalisation de la synthèse comme un problème de Satisfiabilité Modulo Théorie (SMT) afin d’utiliser les solveurs existants pour générer automatiquement une solution assurant formellement le respect des exigences;2- Le développement de méthodes d’analyse spécialement conçues pour évaluer efficacement la conformité d’une architecture vis-à-vis d’un ensemble d’exigences;3- La définition d'un langage KCR permettant de formuler les problèmes d'exploration et l'implantation des méthodes de résolution au sein de l'outil KCR Analyser. / Safety is a major issue in the design of critical systems since any failure can be hazardous to the users or the environment of such systems. In some areas, such as aeronautics, designers must also demonstrate to the certification authorities that the risks are acceptable. To do so, the designers define an architecture containing a set of security mechanisms to mitigate or at least limit the probability of occurrence of the identified risks. The objective of this work is to develop an automatic and generic method of architectural synthesis which formally ensures compliance with the safety requirements. This synthesis activity is then formalized as a design space exploration problem, i.e. find a candidate belonging to a finite set of architectures, fulfilling the safety requirements. Thus, we propose in this document a complete and correct resolution process of the design space exploration problem based on the use of SMT solvers. The main contributions are:1- the formalization of the synthesis as a problem of Satisfiability Modulo Theory (SMT) in order to use existing solvers to automatically generate a solution formally ensuring safety requirements;2- the development of analytic methods specially designed to efficiently assess the conformity of an architecture with respect to a set of safety requirements;3- the definition of a language named, KCR, allowing to formulate the design space exploration problem and the implementation of the methods of resolution presented in this work within the tool KCR Analyser.
|
283 |
Measurement of discontinuous drug exposure in large healthcare databases / Méthodes de mesure de l’exposition médicamenteuse discontinue à partir des grandes bases de données en santéPalmaro, Aurore 20 January 2017 (has links)
Le contexte international de la pharmacoépidémiologie, marqué par la mise en œuvre d’un nombre croissant d’études multi-sources, a fait émerger un certain nombre de questionnements autour de la gestion de données conflictuelles ou de l’impact des choix méthodologiques sur les résultats.Accroître la confiance dans ces études observationnelles et renforcer leur crédibilité face aux données issues des essais cliniques représente un enjeu majeur, qui dépend étroitement de la robustesse des conclusions produites. Dans ce domaine, la mesure de l’exposition médicamenteuse revêt donc une importance toute particulière, tant pour des études portant sur l’estimation d’un risque ou d’un critère d’efficacité, que lors de la description des modalités d’utilisation en vie réelle. L’exposition médicamenteuse reste un phénomène complexe qui se caractérise la plupart du temps par des cycles discontinus, marqués par des évolutions de doses et la présence de médicaments concomitants. Compte tenu des caractéristiques pharmacodynamiques et pharmacocinétiques / The multinational context of pharmacoepidemiology, and the resulting increased number ofmulti-sources studies have generated concerns in relation with conflicting results and the question of the impact of methodological choices on study results. Increasing the confidence in the conclusions derived from these observational studies is a crucial issue, which is closely related to the robustness of the evidence produced. In this area, impact of drug exposure measurement and risk window might be crucial.Drug exposure is mostly characterized by discontinuous episodes, marked by changes in doses and presence of concomitant medications. Considering the pharmacokinetic and pharmacodynamics characteristics specific to each individual drug, the way in which the drug exposure is presented is of great importance. However, methods used for handling drug exposure episodes in electronic healthcare databases are varying widely according studies. However, the impact of these methods
|
284 |
Assisted design and analysis of attack trees / Assistance à la conception et l’analyse d’arbres d’attaqueAudinot, Maxime 17 December 2018 (has links)
En analyse de risques, les arbres d’attaque sont utilisés pour évaluer les menaces sur un système. Les méthodes formelles permettent leur analyse quantitative et leur synthèse, mais les propriétés exprimant la qualité des arbres d’attaque par rapport au système n’ont pas été formalisées. Dans ce document, nous définissons un nouveau cadre formel pour les arbres d’attaque prenant en compte un modèle opérationnel du système, et dotant les arbres d’une sémantique de chemins. Nous définissons les propriétés de correction des raffinements, et étudions leurs complexités. A partir d’une attaque optimale dans un modèle de système quantitatif, nous guidons la conception d’un arbre d’attaque, en indiquant ses feuilles qui contribuent à l’attaque optimale considérée. / In risk analysis, attack trees are used to assess threats to a system. Formal methods allow for their quantitative analysis and synthesis, but the properties expressing the quality of the attack trees with respect to the system have not been formalized. In this document, we define a new formal framework for attack trees that takes an operational model of the system into account, and provides the trees with a path semantics. We define the correctness properties of refinements, and study their computational complexity. Given an optimal attack in a quantitative system model, we guide the design of a attack tree, indicating its leaves that contribute to considered the optimal attack.
|
285 |
Calcul numérique de la réponse acoustique d'un aubage soumis à un sillage turbulent / Numerical calculation of the acoustic response of a blade-row impinged by a turbulent wakeClair, Vincent 26 November 2013 (has links)
Le bruit généré par l'impact du sillage de la soufflante avec les aubes du redresseur est une source prédominante des turboréacteurs en conditions d'approche, et la composante à large bande contribue fortement au niveau sonore global. Une méthode numérique basée sur un code CAA résolvant les équations d Euler est développée dans cette thèse afin d'estimer le bruit d'interaction entre un sillage turbulent et un aubage de géométrie quelconque. Le sillage amont est modélisé à l'aide d'une méthode stochastique supposant un spectre de turbulence homogène isotrope et une représentation spatiale simplifiée du champ de vitesse. Ces fluctuations de vitesse sont injectées dans le code CAA via des conditions aux limites adéquates. La méthode ainsi mise en place est validée dans un premier temps sur des cas d'interaction avec une plaque plane en comparant les résultats numériques aux solutions du modèle d'Amiet. Un chaınage avec une méthode intégrale est aussi réalisé pour estimer le rayonnement acoustique. La méthode numérique est ensuite mise en œuvre pour simuler la réponse acoustique d'un profil isolé avec un bord d'attaque ondulé conçu et testé dans la soufflerie de l'ISVR dans le cadre du projet européen FLOCON. Enfin, la méthodologie est étendue à des configurations de grilles d'aubes annulaires en conduit. Après une étape de validation sur des cas monofréquentiels issus d'un benchmark CAA, des simulations large bande sont réalisées, tout d'abord sur une configuration de grille d'aubes sans incidence (écoulement axial uniforme) testée en soufflerie au LMFA, puis sur une configuration plus complexe de grille d'aubes non chargée en écoulement tournant proposée par Atassi / Noise generation due to the rotor wakes impinging the stator vanes is a dominant turbofan source at approach conditions, and the broadband noise component is significantly contributing to the overall level. A numerical method based on a CAA code solving the Euler equations is developped in this thesis in order to simulate the interaction noise between a turbulent wake and a vane row without geometry restrictions. The upstream turbulent flow is synthesized using a stochastic approach by considering an homogeneous isotropic turbulence spectrum model and a simplified spatial representation of the velocity field. These velocity gusts are injected in the CAA code by implementing a suited boundary condition. The present methodology is first va- lidated against turbulence-flat plate interaction cases, by comparing the numerical predictions to Amiet model solutions. A chaining with an integral formulation is also performed to assess the acoustic far-field. Then, the method is used to estimate the acoustic response of an isolated airfoil with a wavy leading egde, designed and tested in ISVR wind tunnel in the framework of European FLOCON project. Finally, the computations are extended to ducted annular grid configurations. After a validation step on single-frequency cases described in a CAA benchmark, broadband noise simulations are performed, firstly on a flat-plate annular grid in a uniform axial flow tested in the LMFA wind tunnel, and then on a more complex configuration related to an unloaded grid in a swirling mean flow proposed by Atassi
|
286 |
Transport numérique de quantités géométriques / Numerical transport of geometrics quantitiesLepoultier, Guilhem 25 September 2014 (has links)
Une part importante de l’activité en calcul scientifique et analyse numérique est consacrée aux problèmes de transport d’une quantité par un champ donné (ou lui-même calculé numériquement). Les questions de conservations étant essentielles dans ce domaine, on formule en général le problème de façon eulérienne sous la forme d’un bilan au niveau de chaque cellule élémentaire du maillage, et l’on gère l’évolution en suivant les valeurs moyennes dans ces cellules au cours du temps. Une autre approche consiste à suivre les caractéristiques du champ et à transporter les valeurs ponctuelles le long de ces caractéristiques. Cette approche est délicate à mettre en oeuvre, n’assure pas en général une parfaite conservation de la matière transportée, mais peut permettre dans certaines situations de transporter des quantités non régulières avec une grande précision, et sur des temps très longs (sans conditions restrictives sur le pas de temps comme dans le cas des méthodes eulériennes). Les travaux de thèse présentés ici partent de l’idée suivante : dans le cadre des méthodes utilisant un suivi de caractéristiques, transporter une quantité supplémentaire géométrique apportant plus d’informations sur le problème (on peut penser à un tenseur des contraintes dans le contexte de la mécanique des fluides, une métrique sous-jacente lors de l’adaptation de maillage, etc. ). Un premier pan du travail est la formulation théorique d’une méthode de transport de telles quantités. Elle repose sur le principe suivant : utiliser la différentielle du champ de transport pour calculer la différentielle du flot, nous donnant une information sur la déformation locale du domaine nous permettant de modifier nos quantités géométriques. Cette une approche a été explorée dans dans le contexte des méthodes particulaires plus particulièrement dans le domaine de la physique des plasmas. Ces premiers travaux amènent à travailler sur des densités paramétrées par un couple point/tenseur, comme les gaussiennes par exemple, qui sont un contexte d’applications assez naturelles de la méthode. En effet, on peut par la formulation établie transporter le point et le tenseur. La question qui se pose alors et qui constitue le second axe de notre travail est celle du choix d’une distance sur des espaces de densités, permettant par exemple d’étudier l’erreur commise entre la densité transportée et son approximation en fonction de la « concentration » au voisinage du point. On verra que les distances Lp montrent des limites par rapport au phénomène que nous souhaitons étudier. Cette étude repose principalement sur deux outils, les distances de Wasserstein, tirées de la théorie du transport optimal, et la distance de Fisher, au carrefour des statistiques et de la géométrie différentielle. / In applied mathematics, question of moving quantities by vector is an important question : fluid mechanics, kinetic theory… Using particle methods, we're going to move an additional quantity giving more information on the problem. First part of the work is the theorical formulation for this kind of transport. It's going to use the differential in space of the vector field to compute the differential of the flow. An immediate and natural application is density who are parametrized by and point and a tensor, like gaussians. We're going to move such densities by moving point and tensor. Natural question is now the accuracy of such approximation. It's second part of our work , which discuss of distance to estimate such type of densities.
|
287 |
Sampling and Motion Reconstruction in Three-dimensional X-ray Interventional Imaging / Echantillonnage et reconstruction de mouvement en radiologie interventionnelle tridimensionnelleLanget, Hélène 28 March 2013 (has links)
La pratique clinique a été profondément transformée par l'explosion technologique, ces dernières décades, des techniques d'imagerie médicale. L'expansion de la radiologie interventionnelle a ainsi rendu possible des procédures dites « minimalement invasives » au cours desquelles la thérapie est délivrée directement au niveau de la région pathologique via des micro-outils guidés par imagerie à travers le système vasculaire. Des systèmes dits « C-arm », générant une imagerie rayons X planaire temps-réelle en faible dose, sont utilisés pour le guidage. Ils ont offert plus récemment la possibilité d'une visualisation tridimensionnelle par le biais d'acquisitions tomographiques. C'est dans ce contexte de reconstruction tomographique que s'inscrivent ces travaux de thèse. Ils s'attèlent en particulier à corriger les artefacts de mouvement dus aux variations temporelles des vaisseaux injectés et se concentrent sur un aspect central de la tomographie, à savoir l'échantillonnage angulaire. La théorie du compressed sensing identifie les conditions sous lesquelles des données sous-échantillonnées peuvent être reconstruites en minimisant une fonctionnelle qui combine un terme de fidélité quadratique et une contrainte parcimonieuse. S'appuyant sur cette théorie, un formalisme original de reconstruction est proposé : il repose sur la rétroprojection filtrée itérative, les algorithmes proximaux, la minimisation de normes L1 et l'homotopie. Ce formalisme est ensuite dérivé pour intégrer différentes contraintes spatiales et temporelles. Une telle stratégie s'avère plus performante que la rétroprojection filtrée analytique utilisée dans la pratique clinique, permettant la réduction d'artefacts de mouvement et d'échantillonnage dans des cas cliniques bien identifiés de l'imagerie cérébrale et abdominale. Les résultats obtenus soulignent l'une des principales contributions de ce travail, à savoir : l'importance de l'homotopie, en supplément de la régularisation, pour améliorer la qualité image, un gain indispensable dans le domaine d'applicabilité / Medical imaging has known great advances over the past decades to become a powerful tool for the clinical practice. It has led to the tremendous growth of interventional radiology, in which medical devices are inserted and manipulated under image guidance through the vascular system to the pathology location and then used to deliver the therapy. In these minimally-invasive procedures, X-ray guidance is carried out with C-arm systems through two-dimensional real-time projective low-dose images. More recently, three-dimensional visualization via tomographic acquisition has also become available. This work tackles tomographic reconstruction in the aforementioned context. More specifically, it deals with the correction of motion artifacts that originate from the temporal variations of the contrast-enhanced vessels and thus tackles a central aspect of tomography: data (angular) sampling. The compressed sensing theory identifies conditions under which subsampled data can be recovered through the minimization of a least-square data fidelity term combined with sparse constraints. Relying on this theory, an original reconstruction framework is proposed based on iterative filtered backprojection, proximal splitting, `1-minimization and homotopy. This framework is derived for integrating several spatial and temporal penalties. Such a strategy is shown to outperform the analytical filtered backprojection algorithm that is used in the current clinical practice by reducing motion and sampling artifacts in well-identified clinical cases, with focus on cerebral and abdominal imaging. The obtained results emphasize one of the key contributions of this work that is the importance of homotopy in addition to regularization, to provide much needed image quality improvement in the suggested domain of applicability.
|
288 |
Décomposition de domaine pour la simulation Full-Wave dans un plasma froid / Domain decomposition for full-wave simulation in cold plasmaHattori, Takashi 25 June 2014 (has links)
De nos jours, les centrales nucléaires produisent de l'énergie par des réactions de fission (division d'un noyau atomique lourd en plusieurs noyaux atomiques légers et neutrons). Une alternative serait d'utiliser plutôt la réaction de fusion de noyaux légers de deutérium et de tritium, isotopes de l'hydrogène. Toutefois, cette technique reste encore du domaine de la recherche en physique des plasmas. Les expériences effectuées dans ce domaine ont révélé que les réacteurs à configuration magnétique toroïdale, dite tokamak, sont les plus efficaces. Un mélange gazeux d'isotopes de l'hydrogène appelé plasma est confiné grâce à un champ magnétique produit par des bobines. Ce plasma doit être chauffé à une température très élevée afin que les réactions de fusion aboutissent. De même, un courant intense doit être maintenu dans le plasma afin d'obtenir une configuration magnétique qui permet de le confiner. Une des méthodes les plus attrayantes parmi les techniques connues pour générer du courant est basée sur l'injection d'ondes électromagnétiques dans le plasma à la fréquence proche de la résonance hybride. Cette méthode offre la possibilité de contrôler le profil de densité dans le plasma. Une analyse de type Full-Wave permet alors de modéliser la propagation et l'absorption de l'onde hybride à partir des équations de Maxwell. Le but de cette thèse est de développer une méthode numérique pour cette simulation Full-Wave. Le chapitre 2 présente les équations de propagation d'ondes en mettant en évidence les caractères physiques du plasma. Une approche variationnelle de type mixte augmentée est développée et une analyse mathématique de cette dernière est effectuée dans le chapitre 3. Dans le contexte de la géométrie d'un tokamak, le problème Full-Wave dépendant de trois paramètres peut être réduit en une série de problèmes à deux variables à l'aide de la transformation de Fourier, ce sera l'objet du chapitre 4. Dans le chapitre 5, la formulation variationnelle obtenue à partir du problème mode par mode est discrétisée en utilisant des éléments finis nodaux de type Taylor-Hood. Le chapitre 6 concerne les méthodes de résolution du système linéaire après discrétisation. À l'aide de différents diagnostics physiques présentés dans le chapitre 7, des résultats de la simulation Full-Wave obtenues à partir d'un code MATLAB sont présentées dans le chapitre 8. Enfin, dans le but de développer une version parallèle de la simulation, le chapitre 9 est consacré à une méthode de décomposition de domaine sans recouvrement associé au système Full-Wave. / In order to generate current in tokamak, we look at plasma heating by electromagnetic waves at the lower hybrid (LH) frequency. For this type of description, one use a ray tracing code but we consider a full-wave one, where dielectric properties are local.Our aim is to develop a finite element numerical method for the full-wave modeling and to apply a domain decomposition method. In this thesis, we have developped a finite element method in a cross section of the tokamak for Maxwell equations solving the time harmonic electric field and a nonoverlapping domain decom- position method for the mixed augmented variational formulation by taking continuity accross the interfaces as constraints
|
289 |
Comptage de points de courbes hyperelliptiques en grande caractéristique : algorithmes et complexité / Counting points on hyperelliptic curves in large characteristic : algorithms and complexityAbelard, Simon 07 September 2018 (has links)
Le comptage de points de courbes algébriques est une primitive essentielle en théorie des nombres, avec des applications en cryptographie, en géométrie arithmétique et pour les codes correcteurs. Dans cette thèse, nous nous intéressons plus particulièrement au cas de courbes hyperelliptiques définies sur des corps finis de grande caractéristique $p$. Dans ce cas de figure, les algorithmes dérivés de ceux de Schoof et Pila sont actuellement les plus adaptés car leur complexité est polynomiale en $\log p$. En revanche, la dépendance en le genre $g$ de la courbe est exponentielle et se fait cruellement sentir même pour $g=3$. Nos contributions consistent principalement à obtenir de nouvelles bornes pour la dépendance en $g$ de l'exposant de $\log p$. Dans le cas de courbes hyperelliptiques, de précédents travaux donnaient une borne quasi-quadratique que nous avons pu ramener à linéaire, et même constante dans le cas très particuliers de familles de courbes dites à multiplication réelle (RM). En genre $3$, nous avons proposé un algorithme inspiré de ceux de Schoof et de Gaudry-Harley-Schost dont la complexité, en général prohibitive, devient très raisonnable dans le cas de courbes RM. Nous avons ainsi pu réaliser des expériences pratiques et compter les points d'une courbe hyperelliptique de genre $3$ pour un $p$ de 64 bits / Counting points on algebraic curves has drawn a lot of attention due to its many applications from number theory and arithmetic geometry to cryptography and coding theory. In this thesis, we focus on counting points on hyperelliptic curves over finite fields of large characteristic $p$. In this setting, the most suitable algorithms are currently those of Schoof and Pila, because their complexities are polynomial in $\log q$. However, their dependency in the genus $g$ of the curve is exponential, and this is already painful even in genus 3. Our contributions mainly consist of establishing new complexity bounds with a smaller dependency in $g$ of the exponent of $\log p$. For hyperelliptic curves, previous work showed that it was quasi-quadratic, and we reduced it to a linear dependency. Restricting to more special families of hyperelliptic curves with explicit real multiplication (RM), we obtained a constant bound for this exponent.In genus 3, we proposed an algorithm based on those of Schoof and Gaudry-Harley-Schost whose complexity is prohibitive in general, but turns out to be reasonable when the input curves have explicit RM. In this more favorable case, we were able to count points on a hyperelliptic curve defined over a 64-bit prime field
|
290 |
Schémas numériques adaptatifs pour les équations de Vlasov-Poisson / Adaptive numerical schemes for Vlasov-Poisson equationsMadaule, Éric 04 October 2016 (has links)
Le système d'équations de Vlasov-Poisson est un système très connu de la physique des plasmas et un enjeu majeur des futures simulations. Le but est de développer des schémas numériques utilisant une discrétisation par la méthode Galerkin discontinue combinée avec une résolution en temps semi-Lagrangienne et un maillage adaptatif basé sur l'utilisation des multi-ondelettes. La formulation Galerkin discontinue autorise des schémas d'ordres élevés avec des données locales. Cette formulation a fait l'objet de nombreuses publications, tant dans le cadre eulérien par Ayuso de Dios et al., Rossmanith et Seal, etc. que dans le cadre semi-lagrangien par Quo, Nair et Qiu, Qiu et Shu et Bokanowski et Simarta, etc. On utilise les multi-ondelettes pour l'adaptativité (et plus précisément pour la décomposition multi-échelle de la fonction de distribution). Les multi-ondelettes ont été largement étudiées par Alpert et al. pendant les années 1990 et au début des années 2000. Des travaux combinant la résolution multi-échelle avec les méthodes Galerkin discontinues ont fait l'objet de publications par Müller et al. en 2014 pour les lois de conservation hyperboliques dans le contexte des éléments finis. Besse, Latu, Ghizzo, Sonnendrücker et Bertrand ont présenté les avantages d'un maillage adaptatif dans le contexte de Vlasov-Poisson relativiste en utilisant des ondelettes à support large. La combinaison de la méthode Galerkin discontinue avec l'utilisation des multi-ondelettes ne requière en revanche qu'un support compact. Bien que la majorité de la thèse soit présentée dans un espace des phases 1d × 1v, nous avons obtenus quelques résultats dans l'espace des phases 2d × 2v. / Many numerical experiments are performed on the Vlasov-Poisson problem since it is a well known system from plasma physics and a major issue for future simulation of large scale plasmas. Our goal is to develop adaptive numerical schemes using discontinuous Galerkin discretisation combined with semi-Lagrangian description whose mesh refinement based on multi-wavelets. The discontinuous Galerkin formulation enables high-order accuracy with local data for computation. It has recently been widely studied by Ayuso de Dioset al., Rossmanith et Seal, etc. in an Eularian framework, while Guo, Nair and Qiu or Qiu and Shu or Bokanowski and Simarta performed semi-Lagrangian time resolution. We use multi-wavelets framework for the adaptive part. Those have been heavily studied by Alpert et al. during the nineties and the two thousands. Some works merging multi-scale resolution and discontinuous Galerkin methods have been described by Müller and his colleagues in 2014 for non-linear hyperbolic conservation laws in the finite volume framework. In the framework of relativistic Vlasov equation, Besse, Latu, Ghizzo, Sonnendrücker and Bertrand presented the advantage of using adaptive meshes. While they used wavelet decomposition, which requires large data stencil, multi-wavelet decomposition coupled to discontinuous Galerkin discretisation only requires local stencil. This favours the parallelisation but, at the moment, semi-Lagrangian remains an obstacle to highly efficient distributed memory parallelisation. Although most of our work is done in a 1d × 1v phase space, we were able to obtain a few results in a 2d × 2v phase space.
|
Page generated in 0.0697 seconds