• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
851

Exploitation efficace des architectures parallèles de type grappes de NUMA à l’aide de modèles hybrides de programmation

Clet-Ortega, Jérôme 18 April 2012 (has links)
Les systèmes de calcul actuels sont généralement des grappes de machines composés de nombreux processeurs à l'architecture fortement hiérarchique. Leur exploitation constitue le défi majeur des implémentations de modèles de programmation tels MPI ou OpenMP. Une pratique courante consiste à mélanger ces deux modèles pour bénéficier des avantages de chacun. Cependant ces modèles n'ont pas été pensés pour fonctionner conjointement ce qui pose des problèmes de performances. Les travaux de cette thèse visent à assister le développeur dans la programmation d'application de type hybride. Il s'appuient sur une analyse de la hiérarchie architecturale du système de calcul pour dimensionner les ressources d'exécution (processus et threads). Plutôt qu'une approche hybride classique, créant un processus MPI multithreadé par noeud, nous évaluons de façon automatique des solutions alternatives, avec plusieurs processus multithreadés par noeud, mieux adaptées aux machines de calcul modernes. / Modern computing servers usually consist in clusters of computers with several multi-core CPUs featuring a highly hierarchical hardware design. The major challenge of the programming models implementations is to efficiently take benefit from these servers. Combining two type of models, like MPI and OpenMP, is a current trend to reach this point. However these programming models haven't been designed to work together and that leads to performance issues. In this thesis, we propose to assist the programmer who develop hybrid applications. We lean on an analysis of the computing system architecture in order to set the number of processes and threads. Rather than a classical hybrid approach, that is to say creating one multithreaded MPI process per node, we automatically evaluate alternative solutions, with several multithreaded processes per node, better fitted to modern computing systems.
852

Modèles pour l'estimation de l'incidence de l'infection par le VIH en France à partir des données de surveillance VIH et SIDA

Sommen, Cécile 09 December 2009 (has links)
L'incidence de l'infection par le VIH, définie comme le nombre de sujets nouvellement infectés par le VIH au cours du temps, est le seul indicateur permettant réellement d'appréhender la dynamique de l'épidémie du VIH/SIDA. Sa connaissance permet de prévoir les conséquences démographiques de l'épidémie et les besoins futurs de prise en charge, mais également d'évaluer l'efficacité des programmes de prévention. Jusqu'à très récemment, l'idée de base pour estimer l'incidence de l'infection par le VIH a été d'utiliser la méthode de rétro-calcul à partir des données de l'incidence du SIDA et de la connaissance de la distribution de la durée d'incubation du SIDA. L'avènement, à partir de 1996, de nouvelles combinaisons thérapeutiques très efficaces contre le VIH a contribué à modifier la durée d'incubation du SIDA et, par conséquent, à augmenter la difficulté d'utilisation de la méthode de rétro-calcul sous sa forme classique. Plus récemment, l'idée d'intégrer des informations sur les dates de diagnostic VIH a permis d'améliorer la précision des estimations. La plupart des pays occidentaux ont mis en place depuis quelques années un système de surveillance de l'infection à VIH. En France, la notification obligatoire des nouveaux diagnostics d'infection VIH, couplée à la surveillance virologique permettant de distinguer les contaminations récentes des plus anciennes a été mise en place en mars 2003. L'objectif de ce travail de thèse est de développer de nouvelles méthodes d'estimation de l'incidence de l'infection par le VIH capables de combiner les données de surveillance des diagnostics VIH et SIDA et d'utiliser les marqueurs sérologiques recueillis dans la surveillance virologique dans le but de mieux saisir l'évolution de l'épidémie dans les périodes les plus récentes. / The knowledge of the dynamics of the HIV/AIDS epidemic is crucial for planning current and future health care needs. The HIV incidence, i.e. the number of new HIV infections over time, determines the trajectory and the extent of the epidemic but is difficult to measure. The backcalculation method has been widely developed and used to estimate the past pattern of HIV infections and to project future incidence of AIDS from information on the incubation period distribution and AIDS incidence data. In recent years the incubation period from HIV infection to AIDS has changed dramatically due to increased use of antiretroviral therapy, which lengthens the time from HIV infection to the development of AIDS. Therefore, it has become more difficult to use AIDS diagnosis as the basis for back-calculation. More recently, the idea of integrating information on the dates of HIV diagnosis has improved the precision of estimates. In recent years, most western countries have set up a system for monitoring HIV infection. In France, the mandatory reporting of newly diagnosed HIV infection, coupled with virological surveillance to distinguish recent infections from older, was introduced in March 2003. The goal of this PhD thesis is to develop new methods for estimating the HIV incidence able to combine data from monitoring HIV and AIDS diagnoses and use of serologic markers collected in the virological surveillance in order to better understand the evolution of the epidemic in the most recent periods.
853

Exécution efficace de systèmes Multi-Agents sur GPU / Efficient execution of multi-agent systems on GPU

Laville, Guillaume 27 June 2014 (has links)
Ces dernières années ont consacré l’émergence du parallélisme dans la plupart des branches de l’informatique.Au niveau matériel, tout d’abord, du fait de la stagnation des fréquences de fonctionnement des unités decalcul. Au niveau logiciel, ensuite, avec la popularisation de nombreuses plates-formes d’exécution parallèle.Une forme de parallélisme est également présente dans les systèmes multi-agents, qui facilitent la description desystèmes complexes comme ensemble d’entités en interaction. Si l’adéquation entre ce parallélisme d’exécutionlogiciel et conceptuel semble naturelle, la parallélisation reste une démarche difficile, du fait des nombreusesadaptations devant être effectuées et des dépendances présentes explicitement dans de très nombreux systèmesmulti-agents.Dans cette thèse, nous proposons une solution pour faciliter l’implémentation de ces modèles sur une plateformed’exécution parallèle telle que le GPU. Notre bibliothèque MCMAS vient répondre à cette problématiqueau moyen de deux interfaces de programmation, une couche de bas niveau MCM permettant l’accès direct àOpenCL et un ensemble de plugins utilisables sans connaissances GPU. Nous étudions ensuite l’utilisation decette bibliothèque sur trois systèmes multi-agents existants : le modèle proie-prédateur, le modèle MIOR etle modèle Collemboles. Pour montrer l’intérêt de cette approche, nous présentons une étude de performancede chacun de ces modèles et une analyse des facteurs contribuant à une exécution efficace sur GPU. Nousdressons enfin un bilan du travail et des réflexions présentées dans notre mémoire, avant d’évoquer quelquespistes d’amélioration possibles de notre solution. / These last years have seen the emergence of parallelism in many fields of computer science. This is explainedby the stagnation of the frequency of execution units at the hardware level and by the increasing usage ofparallel platforms at the software level. A form of parallelism is present in multi-agent systems, that facilitatethe description of complex systems as a collection of interacting entities. If the similarity between this softwareand this logical parallelism seems obvious, the parallelization process remains difficult in this case because ofthe numerous dependencies encountered in many multi-agent systems.In this thesis, we propose a common solution to facilitate the adaptation of these models on a parallel platformsuch as GPUs. Our library, MCMAS, provides access to two programming interface to facilitate this adaptation:a low-level layer providing direct access to OpenCL, MCM, and a high-level set of plugins not requiring anyGPU-related knowledge.We study the usage of this library on three existing multi-agent models : predator-prey,MIOR and Collembola. To prove the interest of the approach we present a performance study for each modeland an analysis of the various factors contributing to an efficient execution on GPUs. We finally conclude on aoverview of the work and results presented in the report and suggest future directions to enhance our solution.
854

Étude de la validité de l'évaluation interne conduite en cours préparatoire, en français et en mathématiques / Internal assessment on literacy, numeracy and arithmetic on 1st grade study

Blanc, Christophe 24 May 2017 (has links)
Bien que située au cœur de l'activité quotidienne de l'enseignant dans sa classe, l'évaluation interne est une forme d'évaluation peu étudiée. La thèse s'intéresse à la partie la plus explicite de cette évaluation constituée par l'ensemble des épreuves soumises par chaque enseignant aux élèves à des fins d'évaluation, et qui servent de support aux jugements évaluatifs portés dans les « livrets scolaires ». Plus précisément, nous étudions la validité de cette évaluation selon trois dimensions : une dimension de conformité, permettant d'apprécier comment l'évaluation remplit le cahier des charges institutionnel ; une dimension psycho-didactique, permettant d'apprécier en quoi chacune des épreuves est susceptible - ou non - de remplir les objectifs qui lui sont assignés ; une dimension didactique permettant de juger comment l'ensemble des épreuves assure la couverture conceptuelle des champs disciplinaires concernés. Notre travail est centré sur les évaluations internes conduites aux premier et troisième trimestres par des enseignants de Cours Préparatoire en français et en mathématiques, plus particulièrement dans les sous-domaines à fort enjeu socio-scolaire que constituent la lecture, les nombres et le calcul. Pour étudier la première dimension, nous sommes amené à expliciter les référentiels utilisés par les enseignants pour conduire l'évaluation. Une analyse du lien entre ces référentiels et les livrets scolaires utilisés par les enseignants est entreprise. Elle renseigne sur la conformité de l'évaluation à la demande de l'institution scolaire. Concernant la dimension psycho-didactique, centrale dans notre travail, l'enjeu est de prendre en compte, pour chaque épreuve, les éléments qui auraient pu échapper à l'analyse proprement conceptuelle de la tâche et qui pourraient cependant s'avérer des déterminants majeurs du comportement de réponse des élèves. Cela suppose l'explicitation d'un cadre de référence - celui de l'approche psycho-didactique - qui permette effectivement d'analyser chaque épreuve et le fonctionnement cognitif potentiel des élèves confrontés à ces épreuves. La détermination de référentiels de nature didactique (ou épistémo-didactique) qui permettent d'analyser le contenu des tests utilisés par chaque enseignant constitue la base de l'analyse de la validité au sens de la troisième dimension (validité de couverture du test). La conjugaison des dimensions psycho-didactique et didactique de la validité de l'évaluation permet une double analyse, globale et locale, des tests et des épreuves. La validité d'un test est dépendante de la validité des épreuves qui le constitue. La conclusion la plus saillante est que la validité des épreuves et la validité des tests, dans bien des cas, ne sont pas assurées. Cela conduit à remettre en cause les jugements évaluatifs prononcés suite aux passations de l'évaluation. Ce résultat plaide en faveur d'une analyse de la validité conjuguant approche didactique du contenu des tests et approche psycho-didactique des épreuves composant le test. / Internal assessment is not often studied as a form of assessment although it is the teacher daily school activity. This thesis focuses on the most explicit part of this assessment i.e. all the tasks given to the pupils by their teacher in order to assess them. These tasks are used for evaluative judgment written in the « school report book». More precisely, we study this assessment validity depending on three distinct issues: a conformity issue that allows us to understand how assessing may fulfill the institutional specifications; a psycho-didactics issue that allows us to see how each task is likely to fulfill the assigned goals' or not; a didactics issue that allows us to grasp how the tests may conceptually cover the concerned disciplinary fields. This thesis explores internal assessments in French and Mathematics conducted by 1st grade teachers during the first and third terms. We particularly focus on reading, numeracy and arithmetic that are subfields with high socio-educational stakes. In order to examine the first issue, we explain the reference frameworks used by teachers when giving the test. French school programs are central in this area. We investigate how those reference frameworks and school reports are linked. It shows how assessment conforms to the academic institution. When focusing on our main issue, the psycho-didactic one, we emphasize for each task on the elements that could have been missed by the conceptual analysis of the task but yet could turn out to be key factors in the pupils answering behaviors. It means a new reference framework needs to be accounted for: the psycho-didactic approach brings the analysis tools for each task and for the potential cognitive functioning of the pupils who perform those tasks. In order to construct the validity analysis of the test from our third issue (test cover validity), we point out the didactic (or epistemo-didactic) frameworks that allows us to analyze the content of the tests given by each teacher. In combining the psycho-didactic and didactic approaches of assessment validity, we are able to conduct a double analysis, a global one and a local one, of both tasks and tests. The validity of a test depends on the validity of its tasks. The results mainly show that the tasks validity and the tests validity are often not ensured, which leads to question the value of evaluative judgment following the assessment. This advocates for a validity analysis combining a didactic approach of the test content to a psycho-didactic approach of the tasks.
855

Planification de radiothérapie externe à partir d'imagerie par résonance magnétique / MRI-only radiotherapy treatment planning

Largent, Axel 17 December 2018 (has links)
En radiothérapie externe, l'imagerie par rayons X (CT-scan et CBCT) est l'imagerie de référence pour la planification et la délivrance du traitement. Le CT-scan permet l'accès aux densités électroniques des tissus, requises pour le calcul de dose. Le CBCT permet le positionnement du patient, le tracking et le gating de la tumeur. Cependant, l'imagerie par rayons X présente un faible contraste entre les tissus mous et est irradiante. Grâce à un meilleur contraste, l'IRM pourrait améliorer le positionnement du patient, la délinéation des volumes d'intérêt, et le ciblage de la dose. L'IRM présente ainsi un intérêt majeur pour la planification de radiothérapie. L'objectif de cette thèse a été premièrement d'optimiser un protocole d'acquisition d'images IRM de la sphère ORL, avec patient en position de traitement. Le second objectif a été de réaliser une dosimétrie à partir de l'IRM. Cependant, à contrario du CT-scan, l'IRM ne fournit pas la densité électronique des tissus. Pour palier cela, une méthode patch-based (PBM) et une méthode de deep learning (DLM) ont été utilisées pour générer des pseudo-CT, et calculer la dose. La DLM fut un réseau antagoniste génératif et la PBM fut développée en utilisant une recherche de patchs similaires avec des descripteurs d'images. Ces méthodes ont été évaluées et comparées à une méthode atlas (ABM) et une méthode d'assignation de densité (BDM) à partir de critères de jugement images et dosimétriques. La DLM et la PBM apparurent comme les méthodes les plus précises. La DLM fut la méthode la plus rapide et robuste aux variations anatomiques. / In external beam radiotherapy, X-ray imaging (CT-scan and CBCT) is the main imaging modality for treatment planning and dose delivery. CT-scan provides the electron density information required for dose calculation. CBCT allows fast imaging for patient positioning, tracking and gating of the tumor. However, X-ray imaging has a poor soft tissue contrast, and it is an ionizing imaging, in contrast of MRI. Thanks to this better soft tissue contrast, MRI could improve patient positioning, tumor and organs at risk delineation, and dose targeting. The introduction of MRI in the radiotherapy workflow is therefore a topical issue. This thesis firstly aims to optimize an MRI protocol with patient in head-and-neck radiotherapy treatment position. This protocol was endorsed by our clinical center. The second aim of this thesis was to conducted dose calculation from MRI. However, this imaging, unlike CT, lacks the electron density information required for dose calculation. To address this issue, an original non-local-mean patch-based method (PBM) and a deep learning method (DLM) were used to generate pseudo-CTs from MRIs, and compute the dose. The DLM was a generative adversarial network, and the PBM was performed by using an approximate nearest neighbor search with MR feature images. These both methods were evaluated and compared to an atlas-based method (ABM) and a bulk density method (BDM). This comparison was performed by using image and dosimetric endpoints. The DLM and PBM appeared the most accurate methods. The DLM was faster and more robust to anatomical variations than the PBM.
856

Methode multigrilles parallèle pour les simulations 3D de mise en forme de matériaux / Methode multigrilles parallèle pour les simulations 3D de mise en forme de matériaux

Vi, Frédéric 16 June 2017 (has links)
Cette thèse porte sur le développement d’une méthode multigrilles parallèle visant à réduire les temps de calculs des simulations éléments finis dans le domaine de la mise en forme de pièces forgées en 3D. Ces applications utilisent une méthode implicite, caractérisées par une formulation mixte en vitesse/pression et une gestion du contact par pénalisation. Elles impliquent de grandes déformations qui rendent nécessaires des remaillages fréquents sur les maillages tétraédriques non structurés utilisés. La méthode multigrilles développée suit une approche hybride, se basant sur une construction géométrique des niveaux grossiers par déraffinement de maillage non emboîtés et sur une construction algébrique des systèmes linéaires intermédiaires et grossiers. Un comportement asymptotique quasi-linéaire et une bonne efficacité parallèle sont attendus afin de permettre la réalisation de simulations à grand nombre de degrés de liberté dans des temps plus raisonnables qu’aujourd’hui. Pour cela, l’algorithme de déraffinement de maillages est compatible avec le calcul parallèle, ainsi que les opérateurs permettant les transferts de champs entre les différents niveaux de maillages partitionnés. Les spécificités des problèmes à traiter ont mené à la sélection d'un lisseur plus complexe que ceux utilisés plus fréquemment dans la littérature. Sur la grille la plus grossière, une méthode de résolution directe est utilisée, en séquentiel comme en calcul parallèle. La méthode multigrilles est utilisée en tant que préconditionneur d’une méthode de résidu conjugué et a été intégrée au logiciel FORGE NxT et montre un comportement asymptotique et une efficacité parallèle proches de l’optimal. Le déraffinement automatique de maillages permet une compatibilité avec les remaillages fréquents et permet à la méthode multigrilles de simuler un procédé du début à la fin. Les temps de calculs sont significativement réduits, même sur des simulations avec des écoulements particuliers, sur lesquelles la méthode multigrilles ne peut être utilisée de manière optimale. Cette robustesse permet, par exemple, de réduire de 4,5 à 2,5 jours le temps de simulation d’un procédé. / A parallel multigrid method is developed to reduce large computational costs involved by the finite element simulation of 3D metal forming applications. These applications are characterized by a mixed velocity/pressure implicit formulation with a penalty formulation to enforce contact and lead to large deformations, handled by frequent remeshings of unstructured meshes of tetrahedral. The developed multigrid method follows a hybrid approach where the different levels of non-nested meshes are geometrically constructed by mesh coarsening, while the linear systems of the intermediate and coarse levels result from the algebraic approach. A close to linear asymptotical behavior is expected along with parallel efficiency in order to allow simulations with large number of degrees of freedom under reasonable computation times. These objectives lead to a parallel mesh coarsening algorithm and parallel transfer operators allowing fields transfer between the different levels of partitioned meshes. Physical specificities of metal forming applications lead to select a more complex multigrid smoother than those classically used in literature. A direct resolution method is used on the coarsest mesh, in sequential and in parallel computing. The developed multigrid method is used as a preconditioner for a Conjugate Residual algorithm within FORGE NxT software and shows an asymptotical behavior and a parallel efficiency close to optimal. The automatic mesh coarsening algorithm enables compatibility with frequent remeshings and allows the simulation of a forging process from beginning to end with the multigrid method. Computation times are significantly reduced, even on simulations with particular material flows on which the multigrid method is not optimal. This robustness allows, for instance, reducing from 4.5 to 2.5 days the computation of a forging process.
857

Développement d'un modèle level set performant pour la modélisation de la recristallisation en 3D / Development of an efficient level set framework for the full field modeling recrystallization in 3D

Scholtes, Benjamin 05 December 2016 (has links)
Les propriétés mécaniques et fonctionnelles des matériaux métalliques sont conditionnées par leurs microstructures, qui sont elles-mêmes héritées des traitements thermomécaniques subis. Etre capable de prévoir et simuler la microstructure et ses hétérogénéités lors des procédés de mise en forme complexes est récemment devenu crucial dans l'industrie métallurgique. C'est également un véritable challenge d'un point de vue numérique qui met en évidence l'importance des matériaux numériques dans les nouvelles méthodes de modélisation. Dans ce travail, nous nous intéressons à un modèle en champ complet récent basé sur la méthode level set (LS) dans un cadre éléments finis (EF) pour la modélisation des mécanismes de recristallisation.Les points forts de cette approche par rapport à l'état de l'art ont motivé le développement d'un logiciel appelé DIGIMU® par la société TRANSVALOR avec le soutien de grandes entreprises industrielles. Toutefois, le principal inconvénient de cette approche, commun aux autres méthodes en champ complet utilisant des maillages EF non structurés, reste son coût numérique important.Le principal objectif de ce travail a donc été d'améliorer considérablement le coût numérique de la formulation LS utilisée dans le contexte de maillages EF non structurés. De nouveaux développements génériques ont été réalisés pour améliorer l'efficacité globale du modèle. La formulation 2D LS existante, déjà utilisée pour modéliser la croissance de grains, la recristallisation statique et l'effet d'ancrage de Smith-Zener, a été étendue et améliorée afin de modéliser ces mécanismes en 3D pour des polycristaux à grand nombre de grains en des temps de calcul raisonnables. / Mechanical and functional properties of metallic materials are strongly related to their microstructures, which are themselves inherited from thermal and mechanical processing. Being able to accurately predict and simulate the microstructure and its heterogeneities after complex forming paths recently became crucial for the metallurgy industry. This is also a real challenge from a numerical point of view which highlights the importance of digital materials in new modeling techniques. In this work, we focus on a recent front-capturing full field model based on the level set (LS) method within a finite element (FE) framework to model recrystallization mechanisms.The strengths of this approach comparatively to the state of the art have motivated the development of a software package called DIGIMU® by the company TRANSVALOR with the support of major industrial companies. However, the main drawback of this approach, common with other front-capturing full field approaches working on unstructured FE meshes, is its important computational cost, especially in 3D.Main purpose of this work was finally to drastically improve the numerical cost of the considered LS-FE formulation in context of unstructured FE meshes. New generic numerical developments have been proposed to improve the global efficiency of the model. The existing 2D LS formulation, already used to model grain growth, static recrystallization and the Smith-Zener pinning effect, has been extended and improved in order to model these mechanisms in 3D for large-scale polycrystals with reasonable computational costs.
858

Modélisation de la solidification dendritique d’un alliage Al-4.5%pdsCu atomisé avec une méthode de champs de phase anisotrope adaptative / Phase-field modeling of dendritic solidification for an Al-4.5wt%Cu atomized droplet using an anisotropic adaptive mesh

Sarkis, Carole 01 December 2016 (has links)
La croissance dendritique est calculée en utilisant un modèle champ de phase avec adaptation automatique anisotrope et non structurées d’un maillage éléments finis. Les inconnues sont la fonction champ de phase, une température adimensionnelle et une composition adimensionnelle, tel que proposé par [KAR1998] et [RAM2004]. Une interpolation linéaire d’éléments finis est utilisée pour les trois variables, après des techniques de stabilisation de discrétisation qui assurent la convergence vers une solution correcte non-oscillante. Afin d'effectuer des calculs quantitatifs de la croissance dendritique sur un grand domaine, deux ingrédients numériques supplémentaires sont nécessaires: un maillage adaptatif anisotrope et non structuré [COU2011], [COU2014] et un calcul parallèle [DIG2001], mis à disposition de la plateforme numérique utilisée (CimLib) basée sur des développements C++. L'adaptation du maillage se trouve à réduire considérablement le nombre de degrés de liberté. Les résultats des simulations en champ de phase pour les dendrites pour une solidification d'un matériau pur et d’un alliage binaire en deux et trois dimensions sont présentés et comparés à des travaux de référence. Une discussion sur les détails de l'algorithme et le temps CPU sont présentés et une comparaison avec un modèle macroscopique sont faite. / Dendritic growth is computed using a phase-field model with automatic adaptation of an anisotropic and unstructured finite element mesh. Unknowns are the phase-field function, a dimensionless temperature and a dimensionless composition, as proposed by [KAR1998] and [RAM2004]. Linear finite element interpolation is used for all variables, after discretization stabilization techniques that ensure convergence towards a correct non-oscillating solution. In order to perform quantitative computations of dendritic growth on a large domain, two additional numerical ingredients are necessary: automatic anisotropic unstructured adaptive meshing [COU2011], [COU2014] and parallel implementations [DIG2001], both made available with the numerical platform used (CimLib) based on C++ developments. Mesh adaptation is found to greatly reduce the number of degrees of freedom. Results of phase-field simulations for dendritic solidification of a pure material and a binary alloy in two and three dimensions are shown and compared with reference work. Discussion on algorithm details and the CPU time are outlined and a comparison with a macroscopic model are made.
859

Analyse théorique et numérique des équations de la magnétohydrodynamique : application à l'effet dynamo / Theoretical and numerical analysis of the magnetohydrodynamics equations : application to dynamo action

Luddens, Francky 06 December 2012 (has links)
On s'intéresse dans ce mémoire aux équations de la magnétohydrodynamique (MHD) dans des milieux hétérogènes, i.e. dans des milieux pouvant présenter des variations (éventuellement brutales) de propriétés physiques. En particulier, on met ici l'accent sur la résolution des équations de Maxwell dans des milieux avec des propriétés magnétiques inhomogènes. On présentera une méthode non standard pour résoudre ce problème à l'aide d'éléments finis de Lagrange. On évoquera ensuite l'implémentation dans le code SFEMaNS, développé depuis 2002 par J.-L. Guermond, C. Nore, J. Léorat, R. Laguerre et A. Ribeiro, ainsi que les premiers résultats obtenus dans les simulations de dynamo. Nous nous intéresserons par exemple au cas de la dynamo dite de Von Kármán, afin de comprendre l'expérience VKS2. En outre, nous aborderons des cas de dynamo en précession, ou encore le problème de la dynamo au sein d'un écoulement de Taylor-Couette. / We focus on the magnetohydrodynamics (MHD) equations in hetereogeneous media, i.e. media with (possibly brutal) variations on the physical properties. In particular, we are interested in solving the Maxwell equations with discontinuous magnetic properties. We introduce a method that is, to the best of our knowledge, new to solve this problem using only Lagrange Finite Elements. We then discuss its implementation in SFEMaNS, a numerical code developped since 2002 by J.-L. Guermond, C. Nore, J. Léorat, R. Laguerre and A. Ribeiro. We show the results of the first dynamo simulations we have been able to make with this solver. For instance, we present a kinematic dynamo in a VKS setup, as well as some results about dynamo action induced either by a Taylor-Couette flow, or by a precessionnally driven flow.
860

Problèmes aux limites pour les systèmes elliptiques / Boundary value problems for elliptic systems

Stahlhut, Sebastian 30 September 2014 (has links)
Dans cette thèse, nous étudions des problèmes aux limites pour les systèmes elliptiques sous forme divergence avec coefficients complexes dans L^{infty}. Nous prouvons des estimations a priori, discutons de la solvabilité et d'extrapolation de la solvabilité. Nous utilisons une transformation via des équations Cauchy-Riemann généralisées due à P. Auscher, A. Axelsson et A. McIntosh. On peut résoudre les équations Cauchy-Riemann généralisées via la semi-groupe engendré par un opérateur différentiel perturbé d'ordre un de type Dirac. A l'aide du semi-groupe, nous étudions la théorie L^{p} avec une discussion sur la bisectorialité, le calcul fonctionnel holomorphe et les estimations hors-diagonales pour des opérateurs dans le calcul fonctionnel. En particulier, nous développons une théorie L^{p}-L^{q} pour des opérateurs dans le calcul fonctionnel d'opérateur de type Dirac perturbé. Les problèmes de Neumann, Régularité et Dirichlet se formulent avec des estimations quadratiques et des estimations pour la fonction maximale nontangentielle. Cela conduit à à démontrer de telles estimations pour le semi-groupe d'opérateur de Dirac Pour cela, nous utilisons les espaces Hardy associés et les identifions dans certains cas avec des sous-espaces des espaces de Hardy et Lebesgue classiques. Nous obtenons enfin des estimations a priori pour les problème aux limites via une extension utilisant des espaces de Sobolev associés. Nous utilisons les estimations a priori pour une discussion sur la solvabilité des problèmes aux limites et montrer un théorème d'extrapolation de la solvabilité. / In this this thesis we study boundary value problems for elliptic systems in divergence form with complex coefficients in L^{\infty}. We prove a priori estimates, discuss solvability and extrapolation of solvability. We use a transformation to generalized Cauchy-Riemann equations due to P. Auscher, A. Axelsson, and A. McIntosh. The generalized Cauchy-Riemann equations can be solved by the semi-group generated by a perturbed first order Dirac/differential operator. In relation to semi-group theory we setup the L^p theory by a discussion of bisectoriality, holomorphic functional calculus and off-diagonal estimates for operators in the functional calculus. In particular, we develop an L^p-L^q theory for operators in the functional calculus of the first order perturbed Dirac/differential operators. The formulation of Neumann, Regularity and Dirichlet problems involve square function estimates and nontangential maximal function estimates. This leads us to discuss square function estimates and nontangential maximal function estimates involving operators in the functional calculus of the perturbed first order Dirac/differential operator. We discuss the related Hardy spaces associated to operators and prove identifications by subspaces of classical Hardy and Lebesgue spaces. We obtain the a priori estimates by an extension of the square function estimates and nontangential maximal function estimates to Sobolev spaces associated to operators. We use the a priori estimates for a discussion of solvability and extrapolation of solvability.

Page generated in 0.0512 seconds