• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • Tagged with
  • 6
  • 6
  • 6
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Paramétrisations physiques pour un modèle opérationnel de prévision météorologique à haute résolution

Gérard, Luc 31 August 2001 (has links)
Les modèles de prévision opérationnelle du temps résolvent numériquement les équations de la mécanique des fluides en calculant l'évolution de champs (pression, température, humidité, vitesses) définis comme moyennes horizontales à l'échelle des mailles d'une grille (et à différents niveaux verticaux). Les processus d'échelle inférieure à la maille jouent néanmoins un rôle essentiel dans les transferts et les bilans de chaleur, humidité et quantité de mouvement. Les paramétrisations physiques visent à évaluer les termes de source correspondant à ces phénomènes, et apparaissant dans les équations des champs moyens aux points de grille. Lorsque l'on diminue la taille des mailles afin de représenter plus finement l'évolution des phénomènes atmosphériques, certaines hypothèses utilisées dans ces paramétrisations perdent leur validité. Le problème se pose surtout quand la taille des mailles passe en dessous d'une dizaine de kilomètres, se rapprochant de la taille des grands systèmes de nuages convectifs (systèmes orageux, lignes de grain). Ce travail s'inscrit dans le cadre des développements du modèle à mailles fines ARPÈGE ALADIN, utilisé par une douzaine de pays pour l'élaboration de prévisions à courte échéance (jusque 48 heures). Nous décrivons d'abord l'ensemble des paramétrisations physiques du modèle. Suit une analyse détaillée de la paramétrisation actuelle de la convection profonde. Nous présentons également notre contribution personnelle à celle ci, concernant l'entraînement de la quantité de mouvement horizontale dans le nuage convectif. Nous faisons ressortir les principaux points faibles ou hypothèses nécessitant des mailles de grandes dimensions, et dégageons les voies pour de nouveaux développements. Nous approfondissons ensuite deux des aspects sortis de cette discussion: l'usage de variables pronostiques de l'activité convective, et la prise en compte de différences entre l'environnement immédiat du nuage et les valeurs des champs à grande échelle. Ceci nous conduit à la réalisation et la mise en œuvre d'un schéma pronostique de la convection profonde. A ce schéma devraient encore s'ajouter une paramétrisation pronostique des phases condensées suspendues (actuellement en cours de développement par d'autres personnes) et quelques autres améliorations que nous proposons. Des tests de validation et de comportement du schéma pronostique ont été effectués en modèle à aire limitée à différentes résolutions et en modèle global. Dans ce dernier cas l'effet du nouveau schéma sur les bilans globaux est également examiné. Ces expériences apportent un éclairage supplémentaire sur le comportement du schéma convectif et les problèmes de partage entre la schéma de convection profonde et le schéma de précipitation de grande échelle. La présente étude fait donc le point sur le statut actuel des différentes paramétrisations du modèle, et propose des solutions pratiques pour améliorer la qualité de la représentation des phénomènes convectifs. L'utilisation de mailles plus petites que 5 km nécessite enfin de lever l'hypothèse hydrostatique dans les équations de grande échelle, et nous esquissons les raffinements supplémentaires de la paramétrisation possibles dans ce cas.
2

Some Domain Decomposition and Convex Optimization Algorithms with Applications to Inverse Problems

Chen, Jixin 15 June 2018 (has links)
Domain decomposition and convex optimization play fundamental roles in current computation and analysis in many areas of science and engineering. These methods have been well developed and studied in the past thirty years, but they still require further study and improving not only in mathematics but in actual engineering computation with exponential increase of computational complexity and scale. The main goal of this thesis is to develop some efficient and powerful algorithms based on domain decomposition method and convex optimization. The topicsstudied in this thesis mainly include two classes of convex optimization problems: optimal control problems governed by time-dependent partial differential equations and general structured convex optimization problems. These problems have acquired a wide range of applications in engineering and also demand a very high computational complexity. The main contributions are as follows: In Chapter 2, the relevance of an adequate inner loop starting point (as opposed to a sufficient inner loop stopping rule) is discussed in the context of a numerical optimization algorithm consisting of nested primal-dual proximal-gradient iterations. To study the optimal control problem, we obtain second order domain decomposition methods by combining Crank-Nicolson scheme with implicit Galerkin method in the sub-domains and explicit flux approximation along inner boundaries in Chapter 3. Parallelism can be easily achieved for these explicit/implicit methods. Time step constraints are proved to be less severe than that of fully explicit Galerkin finite element method. Based on the domain decomposition method in Chapter 3, we propose an iterative algorithm to solve an optimal control problem associated with the corresponding partial differential equation with pointwise constraint for the control variable in Chapter 4. In Chapter 5, overlapping domain decomposition methods are designed for the wave equation on account of prediction-correction" strategy. A family of unit decomposition functions allow reasonable residual distribution or corrections. No iteration is needed in each time step. This dissertation also covers convergence analysis from the point of view of mathematics for each algorithm we present. The main discretization strategy we adopt is finite element method. Moreover, numerical results are provided respectivelyto verify the theory in each chapter. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
3

A quasicontinuum approach towards mechanical simulations of periodic lattice structures

Chen, Li 16 November 2020 (has links) (PDF)
Thanks to the advancement of additive manufacturing, periodic metallic lattice structures are gaining more and more attention. A major attraction of them is that their design can be tailored to specific applications by changing the basic repetitive pattern of the lattice, called the unit cell. This may involve the selection of optimal strut diameters and orientations, as well as the connectivity and strut lengths. Numerical simulation plays a vital role in understanding the mechanical behavior of metallic lattices and it enables the optimization of design parameters. However, conventional numerical modeling strategies in which each strut is represented by one or more beam finite elements yield prohibitively time­ consuming simulations for metallic lattices in engineering­ scale applications. The reasons are that millions of struts are involved, as well as that geometrical and material nonlinearities at the strut level need to be incorporated. The aim of this thesis is the development of multi­scale quasicontinuum (QC) frameworks to substantially reduce the simulation time of nonlinear mechanical models of metallic lattices. For this purpose, this thesis generalizes the QC method by a multi­-field interpolation enabling amongst others the representation of varying diameters in the struts’ axial directions (as a consequence of the manufacturing process). The efficiency is further increased by a new adaptive scheme that automatically adjusts the model reduction whilst controlling the (elastic or elastoplastic) model’s accuracy. The capabilities of the proposed methodology are demonstrated using numerical examples, such as indentation tests and scratch tests, in which the lattice is modeled using geometrically nonlinear elastic and elastoplastic beam finite elements. They show that the multi­scale framework combines a high accuracy with substantial model reduction that are out of reach of direct numerical simulations. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
4

Physical parameterisations for a high resolution operational numerical weather prediction model / Paramétrisations physiques pour un modèle opérationnel de prévision météorologique à haute résolution

Gerard, Luc 31 August 2001 (has links)
Les modèles de prévision opérationnelle du temps résolvent numériquement les équations de la mécanique des fluides en calculant l'évolution de champs (pression, température, humidité, vitesses) définis comme moyennes horizontales à l'échelle des mailles d'une grille (et à différents niveaux verticaux).<p><p>Les processus d'échelle inférieure à la maille jouent néanmoins un rôle essentiel dans les transferts et les bilans de chaleur, humidité et quantité de mouvement. Les paramétrisations physiques visent à évaluer les termes de source correspondant à ces phénomènes, et apparaissant dans les équations des champs moyens aux points de grille.<p><p>Lorsque l'on diminue la taille des mailles afin de représenter plus finement l'évolution des phénomènes atmosphériques, certaines hypothèses utilisées dans ces paramétrisations perdent leur validité. Le problème se pose surtout quand la taille des mailles passe en dessous d'une dizaine de kilomètres, se rapprochant de la taille des grands systèmes de nuages convectifs (systèmes orageux, lignes de grain).<p><p>Ce travail s'inscrit dans le cadre des développements du modèle à mailles fines ARPÈGE ALADIN, utilisé par une douzaine de pays pour l'élaboration de prévisions à courte échéance (jusque 48 heures).<p><p>Nous décrivons d'abord l'ensemble des paramétrisations physiques du modèle.<p>Suit une analyse détaillée de la paramétrisation actuelle de la convection profonde. Nous présentons également notre contribution personnelle à celle ci, concernant l'entraînement de la quantité de mouvement horizontale dans le nuage convectif.<p>Nous faisons ressortir les principaux points faibles ou hypothèses nécessitant des mailles de grandes dimensions, et dégageons les voies pour de nouveaux développements.<p>Nous approfondissons ensuite deux des aspects sortis de cette discussion: l'usage de variables pronostiques de l'activité convective, et la prise en compte de différences entre l'environnement immédiat du nuage et les valeurs des champs à grande échelle. Ceci nous conduit à la réalisation et la mise en œuvre d'un schéma pronostique de la convection profonde.<p>A ce schéma devraient encore s'ajouter une paramétrisation pronostique des phases condensées suspendues (actuellement en cours de développement par d'autres personnes) et quelques autres améliorations que nous proposons.<p>Des tests de validation et de comportement du schéma pronostique ont été effectués en modèle à aire limitée à différentes résolutions et en modèle global. Dans ce dernier cas l'effet du nouveau schéma sur les bilans globaux est également examiné.<p>Ces expériences apportent un éclairage supplémentaire sur le comportement du schéma convectif et les problèmes de partage entre la schéma de convection profonde et le schéma de précipitation de grande échelle.<p><p>La présente étude fait donc le point sur le statut actuel des différentes paramétrisations du modèle, et propose des solutions pratiques pour améliorer la qualité de la représentation des phénomènes convectifs.<p><p>L'utilisation de mailles plus petites que 5 km nécessite enfin de lever l'hypothèse hydrostatique dans les équations de grande échelle, et nous esquissons les raffinements supplémentaires de la paramétrisation possibles dans ce cas.<p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
5

Contribution to the Numerical Modeling of the VKI Longshot Hypersonic Wind Tunnel

Bensassi, Khalil 29 January 2014 (has links)
The numerical modelling of the VKI-Longshot facility remains a challeng-ing task as it requires multi-physical numerical methods in order to simulate all the components. In the current dissertation, numerical tools were developed in order to study each component of the facility separately and a deep investigations of each stage of the shot were performed. This helped to better understand the different processes involved in the flow development inside this hypersonic wind tunnel. However the numerical computation of different regions of the facility treated as independent from each others remains an approximation at best.The accuracy of the rebuilding code for determining the free stream conditions and the total enthalpy in the VKI-Longshot facility was investigated by using a series of unsteady numerical computations of axisymmetric hypersonic flow over a heat flux probe. Good agreement was obtained between the numerical results and the measured data for both the stagnation pressure and the heat flux dur- ing the useful test time.The driver-driven part of the Longshot facility was modelled using the quasi one-dimensional Lagrangian solver L1d2. The three main conditions used for the experiments —low, medium and high Reynolds number —were considered.The chambrage effect due to the junction between the driver and the driven tubes in the VKI-Longshot facility was investigated. The computation showed great ben- efit of the chambrage in increasing the speed of the piston and thus the final compression ratio of the test gas.Two dimensional simulations of the flow in the driver and the driven tube were performed using Arbitrary Lagrangian Eulerian (ALE) solver in COOLFLuiD. A parallel multi-domain strategy was developed in order to integrate the moving piston within the computational domain.The computed pressure in the reservoir is compared to the one provided by the experiment and good agreement was obtained for both con- editions.Finally, an attempt was made to compute the starting process of the flow in the contoured nozzle. The transient computation of the flow showed how the primary shock initiates the flow in the nozzle before reaching the exit plan at time of 1.5 [ms] after the diaphragm rupture. The complex interactions of the reflected shocks in the throat raise the temperature above 9500 [K] which was not expected. Chemical dissociation of Nitrogen was not taken into account during this transient investigation which may play a key role considering the range of temperature reached near the throat. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
6

Patient-Derived Tumour Growth Modelling from Multi-Parametric Analysis of Combined Dynamic PET/MR Data

Martens, Corentin 03 March 2021 (has links) (PDF)
Gliomas are the most common primary brain tumours and are associated with poor prognosis. Among them, diffuse gliomas – which include their most aggressive form glioblastoma (GBM) – are known to be highly infiltrative. The diagnosis and follow-up of gliomas rely on positron emission tomography (PET) and magnetic resonance imaging (MRI). However, these imaging techniques do not currently allow to assess the whole extent of such infiltrative tumours nor to anticipate their preferred invasion patterns, leading to sub-optimal treatment planning. Mathematical tumour growth modelling has been proposed to address this problem. Reaction-diffusion tumour growth models, which are probably the most commonly used for diffuse gliomas growth modelling, propose to capture the proliferation and migration of glioma cells by means of a partial differential equation. Although the potential of such models has been shown in many works for patient follow-up and therapy planning, only few limited clinical applications have seemed to emerge from these works. This thesis aims at revisiting reaction-diffusion tumour growth models using state-of-the-art medical imaging and data processing technologies, with the objective of integrating multi-parametric PET/MRI data to further personalise the model. Brain tissue segmentation on MR images is first addressed with the aim of defining a patient-specific domain to solve the model. A previously proposed method to derive a tumour cell diffusion tensor from the water diffusion tensor assessed by diffusion-tensor imaging (DTI) is then implemented to guide the anisotropic migration of tumour cells along white matter tracts. The use of dynamic [S-methyl-11C]methionine ([11C]MET) PET is also investigated to derive patient-specific proliferation potential maps for the model. These investigations lead to the development of a microscopic compartmental model for amino acid PET tracer transport in gliomas. Based on the compartmental model results, a novel methodology is proposed to extract parametric maps from dynamic [11C]MET PET data using principal component analysis (PCA). The problem of estimating the initial conditions of the model from MR images is then addressed by means of a translational MRI/histology study in a case of non-operated GBM. Numerical solving strategies based on the widely used finite difference and finite element methods are finally implemented and compared. All these developments are embedded within a common framework allowing to study glioma growth in silico and providing a solid basis for further research in this field. However, commonly accepted hypothesis relating the outlines of abnormalities visible on MRI to tumour cell density iso-contours have been invalidated by the translational study carried out, leaving opened the questions of the initialisation and the validation of the model. Furthermore, the analysis of the temporal evolution of real multi-treated glioma patients demonstrates the limitations of the formulated model. These latter statements highlight current obstacles to the clinical application of reaction-diffusion tumour growth models and pave the way to further improvements. / Les gliomes sont les tumeurs cérébrales primitives les plus communes et sont associés à un mauvais pronostic. Parmi ces derniers, les gliomes diffus – qui incluent la forme la plus agressive, le glioblastome (GBM) – sont connus pour être hautement infiltrants. Le diagnostic et le suivi des gliomes s'appuient sur la tomographie par émission de positons (TEP) ainsi que l'imagerie par résonance magnétique (IRM). Cependant, ces techniques d'imagerie ne permettent actuellement pas d'évaluer l'étendue totale de tumeurs aussi infiltrantes ni d'anticiper leurs schémas d'invasion préférentiels, conduisant à une planification sous-optimale du traitement. La modélisation mathématique de la croissance tumorale a été proposée pour répondre à ce problème. Les modèles de croissance tumorale de type réaction-diffusion, qui sont probablement les plus communément utilisés pour la modélisation de la croissance des gliomes diffus, proposent de capturer la prolifération et la migration des cellules tumorales au moyen d'une équation aux dérivées partielles. Bien que le potentiel de tels modèles ait été démontré dans de nombreux travaux pour le suivi des patients et la planification de thérapies, seules quelques applications cliniques restreintes semblent avoir émergé de ces derniers. Ce travail de thèse a pour but de revisiter les modèles de croissance tumorale de type réaction-diffusion en utilisant des technologies de pointe en imagerie médicale et traitement de données, avec pour objectif d'y intégrer des données TEP/IRM multi-paramétriques pour personnaliser davantage le modèle. Le problème de la segmentation des tissus cérébraux dans les images IRM est d'abord adressé, avec pour but de définir un domaine propre au patient pour la résolution du modèle. Une méthode proposée précédemment permettant de dériver un tenseur de diffusion tumoral à partir du tenseur de diffusion de l'eau évalué par imagerie DTI a ensuite été implémentée afin de guider la migration anisotrope des cellules tumorales le long des fibres de matière blanche. L'utilisation de l'imagerie TEP dynamique à la [S-méthyl-11C]méthionine ([11C]MET) est également investiguée pour la génération de cartes de potentiel prolifératif propre au patient afin de nourrir le modèle. Ces investigations ont mené au développement d'un modèle compartimental pour le transport des traceurs TEP dérivés des acides aminés dans les gliomes. Sur base des résultats du modèle compartimental, une nouvelle méthodologie est proposée utilisant l'analyse en composantes principales pour extraire des cartes paramétriques à partir de données TEP dynamiques à la [11C]MET. Le problème de l'estimation des conditions initiales du modèle à partir d'images IRM est ensuite adressé par le biais d'une étude translationelle combinant IRM et histologie menée sur un cas de GBM non-opéré. Différentes stratégies de résolution numérique basées sur les méthodes des différences et éléments finis sont finalement implémentées et comparées. Tous ces développements sont embarqués dans un framework commun permettant d'étudier in silico la croissance des gliomes et fournissant une base solide pour de futures recherches dans le domaine. Cependant, certaines hypothèses communément admises reliant les délimitations des anormalités visibles en IRM à des iso-contours de densité de cellules tumorales ont été invalidée par l'étude translationelle menée, laissant ouverte les questions de l'initialisation et de la validation du modèle. Par ailleurs, l'analyse de l'évolution temporelle de cas réels de gliomes multi-traités démontre les limitations du modèle. Ces dernières affirmations mettent en évidence les obstacles actuels à l'application clinique de tels modèles et ouvrent la voie à de nouvelles possibilités d'amélioration. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished

Page generated in 0.1426 seconds