• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 213
  • 91
  • 27
  • 1
  • Tagged with
  • 326
  • 326
  • 128
  • 106
  • 73
  • 64
  • 57
  • 55
  • 49
  • 41
  • 40
  • 34
  • 33
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Développement de méthodes numériques multi échelle pour le calcul des structures constituées de matériaux fortement hétérogènes élastiques et viscoélastiques / Development of numerical multi-scale methods for calculating structures made ​​of strongly heterogeneous elastic and viscoelastic materials

Tran, Anh Binh 13 October 2011 (has links)
Les bétons sont des matériaux composites à la microstructure complexe et constitués de phases dont le contraste des propriétés physiques et mécaniques peut être très grand. Ces matériaux posent des difficultés aux approches macroscopiques lorsqu'il s'agit de maîtriser leurs comportements effectifs comme celui du fluage. Malgré ces difficultés, EDF doit se doter d'outils permettant de modéliser de façon prédictive l'évolution des bétons des ouvrages en service ou de prescrire lecahier des charges des bétons de nouvelles installations. Ayant pour objectif de contribuer à la résolution de ce problème, ce travail de thèse développe des méthodes numériques multi échelle pour le calcul des structures constituées de matériaux fortement hétérogènes élastiques ou viscoélastiques. Plus précisément, ce travail de thèse comporte trois parties. Dans la première partie, nous nous intéressons à un composite constitué d'une matrice élastique renforcée par des inclusionsélastiques dont les formes géométriques peuvent être quelconques et dont la fraction volumique peut être importante. Pour modéliser ce matériau composite, une première approche numérique consistant à combiner la méthode des éléments finis étendus (XFEM) standard et la méthode "level-set" (LS) classique est d'abord utilisée. Nous montrons que cette première approche numérique, qui apparaît naturelle, induit en fait plusieurs artefacts numériques non rapportés dans la littérature, conduisant en particulier à une convergence non optimale par rapport à la finessedu maillage. Par suite, nous élaborons une nouvelle approche numérique ($mu $-XFEM) basée sur la description des interfaces par des courbes de niveaux multiples et sur un enrichissement augmenté permettant de prendre en compte plusieurs interfaces dans un même élément. Nous démontrons au travers des comparaisons et exemples que la convergence est améliorée de manière substantielle par rapport à la première approche numérique. Dans la deuxième partie, nous proposons une nouvelle méthode pour calculer les déformations différées des structures composées de matériaux hétérogènes viscoélastiques linéaires. Contrairement aux approches proposées jusqu'à présent, notre méthode opère directement dans l'espace temporel et permet d'extraire de manière séquentielle le comportement homogénéisé d'un matériau hétérogène viscoélastique linéaire. Concrètement, les composantes du tenseur de relaxation effectif du matériau sont d'abord obtenues à partir d'un volume élémentaire représentatif et échantillonnées au cours du temps. Une technique d'interpolation et un algorithme implicite permettent ensuite d'évaluer numériquement la réponse temporelle du matériau par le biais d'un produit de convolution. Les déformations différées des structures sont enfin calculées par la méthode des éléments finis classique. Différents tests sont effectués pour évaluer la qualité et l'efficacité de la méthode proposée, montrant que cette dernière permet d'avoir un gain en temps de l'ordre de plusieurs centaines par rapport aux approches de type éléments finis multiniveaux. La troisième partie est consacrée à l'étude de la structure de l'enceinte de confinement d'un réacteur nucléaire. Nous prenons en compte les quatre niveaux d'échelles associés à la pâte deciment, au mortier, au béton et à la structure en béton précontraint par des câbles en acier. La méthode numérique d'homogénéisation élaborée dans la seconde partie est appliquée afin de construire les lois de comportement pour chacun des trois premiers niveaux. Les résultats obtenus présentent un intérêt pratique pour résoudre des problèmes posés par EDF / Concretes are composite materials having complex microstructure and consisting of phases whose physical and mechanical properties can exhibit high contrast. Difficulties arise when macroscopic approaches are used to evaluate their effective behaviors such as the creeping one. Despite thesedifficulties, EDF has to be endowed with tools allowing to model in a predictive way the evolution of concrete structures in service or to prescribe the specifications of concrete for new facilities. Aimed to contribute to solving this problem, this thesis develops multi-scale numerical methods for the computation of structures made of highly heterogeneous elastic or viscoelastic materials. More precisely, this thesis comprises three parts. In the first part, we focus on a composite consisting of an elastic matrix reinforced by elastic inclusions which may be of any geometric shapes and whose volume fraction can be significant. To model this composite material, a first numerical approach which combines the standard extended finite element method (XFEM) and the classical level-set method (LSM) is used. We show that this numerical approach, which appears natural, leads in fact to several numerical artefacts having not been reported in the literature, giving rise in particular to non-optimal convergence with respect to the fineness of the mesh. In view of this, we develop a new numerical approach based on the description of the interfaces with multiple level sets and augmented enrichment so as to account for multiple interfaces in a single finite element. We demonstrate through examples and benchmarks that the proposed method significantly improves convergence compared to the first numerical approach. In the second part, we elaborate a new method to compute the creeping of structures formed of linearly viscoelastic heterogeneous materials. Unlike the approaches proposed up to now, our method operates directly in the time space and allows to sequentially extract the homogenized properties of a linearly viscoelastic heterogeneous material. Precisely, the components of the effective relaxation tensor of the material is first obtained from a representative volume element and sampled over time. An interpolation technique and an implicit algorithm are then used to numerically evaluate the time-dependent response of the material through a convolution product. The creeping of structures is finally calculated by the classical finite element method. Various tests are performed to assess the quality and effectiveness of the proposed method, showing that it can give a gain of time of the order of several hundreds compared to approaches such as multi-level finite element. The third part of the thesis is devoted to the study of the structure of containment of a nuclear reactor. We consider four scale levels associated with cement paste, mortar, concrete and a pre-stressed concrete structure with steel cables. The numerical method of homogenization developed in the second part is applied to construct the constitutive equations for each of the first three scale levels. The results thus obtained are useful for solving some practical problems posed by EDF
212

Modélisation multi-échelle de l'interaction entre les éléments d'alliages et les lacunes dans les aciers ferritiques / Multiscale modeling of interactions between vacancies and alloying elements in ferritic alloys

Barouh, Caroline 09 November 2015 (has links)
Cette these est consacree a l’etude des interactions entre les lacunes et les elements d'alliages d’un acier renforcé par une dispersion de nano-oxydes (ODS (Oxide Dispersion Strengthened)), matériau de structure envisagé pour les réacteurs nucléaires du futur. Ces travaux ont été réalisés pour un système simplifié constitué d'une matrice de fer α contenant de l'oxygène, de l'yttrium, du titane et des lacunes à partir de modélisations multi-échelles. Nous nous sommes attachés en particulier au rôle des lacunes formées en exces au cours de l’elaboration de ces aciers. La stabilite et la mobilite des amas lacunes-solutés ont été examinées à partir de calculs ab initio, d’une part, pour l’oxygene qui a ete compare au carbone et a l’azote, solutes interstitiels egalement presents dans les aciers, et d’autre part, pour le titane et l’yttrium, solutes substitutionnels. Les trois solutés interstitiels ont révélé un comportement tres analogue. L’impact de la mobilité des amas lacunes-solutes a ete etabli en utilisant un modele en dynamique d’amas parametre sur nos résultats ab initio. Il a été ainsi démontré que, en sursaturation de lacunes, la diffusion des solutés interstitiels peut etre acceleree, alors que celle des solutes substitutionnels ne l’est pas forcement. Ces conclusions se sont averees coherentes avec des observations experimentales existantes. L’ensemble de ces résultats ont ensuite été exploité pour améliorer notre compréhension des mécanismes de formation des nanoparticules. Il est apparu que la diffusion relative de l’yttrium et du titane, ainsi que le nombre de noyaux potentiels pour former des nanoparticules dépendent de la concentration en lacunes dans le système. / This PhD thesis is devoted to the study of interactions between vacancies and alloying elements in Oxide Dispersion Strengthened (ODS) steels, which are promising candidate materials for future nuclear reactors. This work is based on multiscale modeling of a simplified system composed by oxygen, yttrium and titanium atoms and vacancies in an α-iron lattice. We particularly focused on the role of vacancies which are created in excess during the fabrication of these steels. The stability and mobility of vacancy-solute clusters have been examined using ab initio calculations for oxygen, on one hand, which has been systematically compared to carbon and nitrogen, interstitial solutes frequently present in iron-based materials, and, on the other hand, for substitutional solutes : titanium and yttrium. The three interstitial solutes show very similar energetic and kinetic behaviors. The impact of small mobile vacancy-solute clusters has been verified using a cluster dynamics model based on our ab initio results. It has been thus demonstrated that with oversaturation of vacancies, diffusion of interstitial solutes may be accelerated, while substitutional solutes do not become necessarily faster. These conclusions are consistent with existing experimental observations. All these results have been then used to complete our understanding of nanoclusters formation mechanisms. It appeared that the relative mobility of yttrium and titanium, as well as the number of potential nuclei to form nanoparticles strongly depend on the total vacancy concentration in the system.
213

Multi-scale study of the degradation of railway ballast / Étude multi-échelle de la dégradation du ballast ferroviaire

Deiros Quintanilla, Ivan 02 May 2018 (has links)
Pour voies ferrées à grandes vitesses (LGV, Lignes à Grande Vitesse), la durabilité des performances du ballast de chemin de fer n’est pas aussi importante qu’attendu. Le comportement mécanique de cette couche granulaire mince dépend fortement de la forme, la taille et la minéralogie des grains. Sur les LGV, les grains s’usent plus vite qu’attendu, essentiellement à cause de l’accumulation des opérations de maintenance appelées bourrage. Une conséquence à cela est un renouvellement complet du ballast avec une fréquence largement supérieure à ce qui était initialement prévu à la création de ces lignes.Soumis à des contraintes dynamiques combinées (trafic ferroviaire et des opérations de bourrage), les grains de ballast se dégradent par fragmentation et par attrition aux contacts. Les conséquences directes de cette dégradation progressive sont l’évolution de la taille et de la forme des grains. La courbe granulométrique est alors translatée vers les petits éléments, avec une présence notable de particules très fines résultant de l’usure des grains. De plus, l’angularité des grains est progressivement diminuée. Au-delà d’un certain temps, le cumul de dégradation se traduit par une chute des performances mécaniques du ballast. Le ballast ne remplit plus efficacement ses fonctions. La résistance latérale de la voie est réduite, limitant ainsi la répartition des contraintes sur la plateforme et l’ancrage des traverses. La présence excessive de fines rend le bourrage inefficace et diminue la perméabilité de la voie. Par conséquent, pour trouver des solutions optimales pour prolonger la durée de vie du ballast, il est nécessaire d’abord de bien comprendre les origines et mécanismes menant à l’usure des grains, pour finalement construire un modèle prédictif de dégradation.La dégradation des interfaces au contact génère de particules fines. La quantité de fines produite, laquelle dépend des conditions de chargement, est classiquement prédite par l’équation d’Archard. Ce modèle part du principe que le volume d’usure généré est proportionnel à la force normale et au déplacement relatif entre les surfaces en contact. La simulation numérique par éléments discrets (NSCD) d’une portion de voie de chemin de fer soumis à un chargement cyclique est un outil nécessaire pour réaliser la transition entre l’échelle de la voie et l’échelle du contact, fournissant les informations sur le ballast en tant que couche granulaire, depuis son comportement global jusqu’aux forces de contact et les déplacements relatifs entre les grains. Les contacts montrant un grand potentiel de génération de fines (selon le modèle d’Archard) sont identifiés et reproduits expérimentalement avec des essais de cisaillement entre deux grains. Parallèlement, l’essai d’attrition Micro-Deval est utilisé pour relier les résultats numériques et expérimentaux, et ainsi valider le modèle d’Archard, et pour suivre l’évolution de la forme des grains avec l’aide des scans d’un échantillon de grains par tomographie RX à différents états d’usure. Les deux campagnes d’essais montrent la faiblesse des aspérités les plus aiguisées, dont spécialement celles sur les arêtes et sommets.Un modèle prédictif d’usure en deux phases est donc proposé. La première phase décrit une usure rapide due aux fortes contraintes normales à l’interface de contact, et la deuxième phase décrit un taux d’usure plus modéré. Une contrainte seuil permet d’identifier clairement le passage d’une phase à une autre. Sur la base des déplacements relatifs intergranulaires observés dans la simulation numérique discrète, ce modèle est appliqué pour chaque contact dont l’histoire de chargement est variable. Une estimation de la courbe de génération de fines dans la voie est ainsi proposée. / After some years of high-speed lines in France (HSL), ballast has proven not to be resistant enough. The performance of ballast, as a thin layer of coarse grains, strongly depends on the shape, size and mineralogical nature of the grains composing it. However, in HSL, grains wear faster than expected due to the traffic of trains at high speeds and the accumulation of maintenance operations (tamping). Ballast replacement has therefore been required much before than its originally expected lifespan.Under the dynamic stresses imposed by the circulation of trains and tamping operations, ballast is gradually worn by fragmentation of grains and attrition at the contacts. The direct consequence of this degradation is the evolution of grain size and shape: the grading curve is shifted towards small and fine particles and the grains progressively lose their angularity. Eventually, the cumulated wear will no longer allow ballast to perform properly: the shear resistance of the layer is reduced limiting both the anchorage of sleepers and the distribution of loads to the platform. In addition, the presence in excess of fine particles renders tamping ineffective (fast evolution of track defaults) and reduces the permeability of the track. Thus, in order to search for optimized solutions for prolonging ballast lifespan, it is crucial to first understand the origins and mechanisms leading to ballast degradation when it is subjected to complex loading, for building a predictive model of ballast wear.The degradation of contact interfaces generates fine particles. The associated mass flux, which depends on the loading conditions, has been classically predicted by Archard equation. The model assumes that the generated volume of wear is proportional to the normal force and the relative displacement between the surfaces. Therefore, it is crucial to quantify the forces at the contact scale and the relative displacements between ballast grains in sliding contact. Discrete elements simulations by NSCD are used as a tool for performing a change in scale from the track scale to the contact scale, giving information of ballast as a granular layer, from its global behaviour down to the contact forces and relative displacements between grains. Contacts with a higher potential of generating fine particles (according to Archard model) are then identified and reproduced experimentally by two-grain shearing tests. In parallel, the Micro-Deval standard attrition test is used as a link between numerical and experimental results to validate Archard model, and to study the evolution of grain morphology by scanning a sample of grains using X-ray tomography at different stages of the test. Both experimental campaigns show the weakness of sharp asperities, especially on edges and vertexes.A model in two phases is proposed, accounting for a first phase of fast and aggressive degradation due to the high stress at the contact interface and a more stable second phase with a lower wear rate. A critical stress is identified as a threshold between phases. This model is then applied at each individual contact on the numerical simulations, resulting in a first approach of the production curve of fine particles within the track.
214

Cell-based multi-scale modeling for systems and synthetic biology : from stochastic gene expression in single cells to spatially organized cell populations / Modélisation multi-échelle de cellule-centrée pour systèmes et biologie synthétique : de l'expression stochastique des gènes en cellule unique à l'espace organisé des populations de cellules

Bertaux, François 15 May 2016 (has links)
Les sources intrinsèques d'héterogénéité cellulaire, comme l'expression stochastique des gènes, sont de plus en plus reconnues comme jouant un rôle important dans la dynamique des tissus, tumeurs, communautés microbiennes... Cependant, elles sont souvent ignorées ou représentées de manière simpliste dans les modèles théoriques de populations de cellules. Dans cette thèse, nous proposons une approche cellule-centrée (chaque cellule est représentée de manière individuelle), multi-échelle (les décisions cellulaires sont placées sous le contrôle de voies de signalisation biochimiques simulées dans chaque cellule) pour modéliser la dynamique de populations de cellules. La nouveauté principale de cette approche réside dans la prise en compte systématique (pour toutes les protéines modélisées) des fluctuations du niveau des protéines résultant de l'expression stochastique des gènes. Cela permet d'étudier l'effet combiné des causes intrinsèques et environnementales d'héterogénéité cellulaire sur la dynamique de la population de cellules. Un élément central de notre approche est une stratégie parsimonieuse pour attribuer les paramètres de modèles d'expression stochastique des gènes. Nous appliquons cette approche à deux cas d'étude. Nous considérons en premier la resistance à l'agent anti-cancer TRAIL, qui peut induire l'apoptose sélectivement dans les cellules cancéreuses. Nous construisons d'abord un modèle 'cellule unique' de l'apoptose induite par TRAIL et le comparons à des données existantes quantitatives et 'cellules uniques'. Le modèle explique la mort fractionnelle (le fait que seul une fraction des cellules meurent à la suite d'un traitement) et prédit correctement l'héritabilité transiente du destin cellulaire ainsi que l'acquisition transiente de résistance, deux propriétés observées mais hors de portée des modèles pré-existants, qui ne capturent pas la dynamique de l'héterogénéité cellulaire. Dans une seconde étape, nous intégrons ce modèle dans des simulations multi-cellulaires pour étudier la résistance à TRAIL dans des scénarios virtuels intermédiaires entre les études classiques in-vitro et la réponse de tumeurs in-vivo. Plus précisément, nous considérons la réponse en temps long de sphéroides multi-cellulaires à des traitements répétés de TRAIL. L'analyse de nos simulations permet de proposer une explication originale et méchanistique de l'acquisition transiente de résistance, impliquant la dégradation ciblée des protéines activées et un différentiel dans le renouvellement des protéines pro- et anti- apoptotiques. Nous appliquons aussi notre approche à un système synthétique de création de motifs développé dans des levures par des collaborateurs. Nous nous concentrons d'abord sur un circuit senseur d'une molécule messager pour lequel nous construisons un modèle cellule unique qui capture de manière fine la dynamique de réponse du circuit telle qu'observée par cytométrie en flux. Nous intégrons ensuite ce modèle dans des des simulations multi-cellulaires et montrons que la réponse de micro-colonies organisées spatialement et soumises à des gradients de molécule messager est correctement prédite. Finalement, nous incorporons un modèle d'un circuit de mort et comparons les motifs prédits de cellules mortes/vivantes avec des données expérimentales, nous permettons de mieux comprendre comment les paramètres du circuit se traduisent en phénotypes d'organisation multi-cellulaire. Notre approche peut contribuer à l'obtention de modèles de populations de cellules de plus en plus quantitatifs, prédictifs et qui englobent l'échelle moléculaire. / Cell-intrinsic, non-environmental sources of cell-to-cell variability, such as stochastic gene expression, are increasingly recognized to play an important role in the dynamics of tissues, tumors, microbial communities... However, they are usually ignored or oversimplified in theoretical models of cell populations. In this thesis, we propose a cell-based (each cell is represented individually), multi-scale (cellular decisions are controlled by biochemical reaction pathways simulated in each cell) approach to model the dynamics of cell populations. The main novelty compared to traditional approaches is that the fluctuations of protein levels driven by stochastic gene expression are systematically accounted for (i.e., for every protein in the modeled pathways). This enables to investigate the joint effect of cell-intrinsic and environmental sources of cell-to-cell variability on cell population dynamics. Central to our approach is a parsimonious and principled parameterization strategy for stochastic gene expression models. The approach is applied on two case studies. First, it is used to investigate the resistance of HeLa cells to the anti-cancer agent TRAIL, which can induce apoptosis specifically in cancer cells. A single-cell model of TRAIL-induced apoptosis is constructed and compared to existing quantitative, single-cell experimental data. The model explains fractional killing and correctly predicts transient cell fate inheritance and reversible resistance, two observed properties that are out of reach of previous models of TRAIL-induced apoptosis, which do not capture the dynamics of cell-to-cell variability. In a second step, we integrate this model into multi-cellular simulations to study TRAIL resistance in virtual scenarios constructed to help bridging the gap between standard in-vitro assays and the response of in-vivo tumors. More precisely, we consider the long-term response of multi-cellular spheroids to repeated TRAIL treatments. Analysis of model simulations points to an novel, mechanistic explanation for transient resistance acquisition, which involves the targeted degradation of activated proteins and a differential turnover between pro- and anti- apoptotic proteins. Second, we apply our approach to a synthetic spatial patterning system in yeast cells developed by collaborators. Focusing first on a sensing circuit responding to a messenger molecule, we construct a single-cell model that accurately capture the response kinetics of the circuit as observed in flow cytometry data. We then integrate this model into multi-cellular simulations and show that the response of spatially-organized micro-colonies submitted to gradients of messenger molecules is correctly predicted. Finally, we incorporate a model of a killing circuit and compare the predicted patterns of dead or alive cells with experimental data, yielding insights into how the circuit parameters translate into multi-cellular organization phenotypes. Our modeling approach has the potential to accelerate the obtention of more quantitative and predictive models of cell populations that encompass the molecular scale.
215

Modélisation multi-échelle d'écoulements sanguins et application à des pathologies congénitales du cœur / Multiscale modeling of blood flow in the context of congenital heart disease

Arbia, Grégory 16 December 2014 (has links)
Dans cette thèse nous traitons de la simulation numérique des écoulements sanguins dans le contexte des maladies cardiaques congénitales. Nous nous concentrons d'une part sur l'intégration de données cliniques, et d'autre part sur les aspects de couplages multi-échelles. Dans l'introduction, nous présentons les pathologies structurelles du cœur et les traitements chirurgicaux nécessaires dans certaines cardiopathies sévères. Puis, nous consacrons un chapitre aux challenges liés à la simulation numérique des écoulements sanguins. Dans les deux chapitres suivants nous présentons une méthodologie permettant d'estimer des paramètres de modèles réduits modélisant l'arbre artériel pulmonaire, en y intégrant des mesures cliniques prises pour chaque patient à différents endroits avant intervention chirurgicale. Cette méthode est appliquée sur neuf patients et permet de représenter l'hémodynamique dans les artères pulmonaires pour chacun des patients. Le chapitre suivant est consacré au couplage des équations de Navier-Stokes 3D avec un modèle réduit, qui soulève des problèmes d'instabilités numériques dans nombre d'applications. Nous présentons d'abord un état de l'art des couplages 3D-0D communément utilisés pour ce type de problème. Nous présentons de plus une étude de stabilité pour montrer quels sont les avantages et inconvénients de chacun d'eux. Ensuite, nous présentons une nouvelle méthode de couplage 3D-3D qui est similaire, d'un point de vue énergétique, au couplage avec un modèle réduit. Nous comparons enfin les méthodes existantes à ce couplage 3D-3D sur trois cas de patients, côtés systémique et pulmonaire. Dans le dernier chapitre de cette thèse, nous nous intéressons à la propagation des incertitudes des données cliniques sur la simulation de l’hémodynamique dansle cadre de chirurgie virtuelle. / In this thesis, we deal with numerical simulation of blood flow in the context of congenital heart diseases. We focus on clinical data integration into reduced models, and from a numerical point view on the coupling of blood flow (3D Navier-Stokes equations) and reduced models. In the introduction, we present congenital heart diseases and the surgical palliations needed for severe pathologies. We then present a chapter on challenges in numerical simulations of blood flow. In the next chapters, we present a methodology to estimate parameters of reduced models taking into account the effect of the pulmonary vasculature and the clinical measurements performed at different locations prior to surgical intervention of each patient. This method is applied to nine patient-specific cases and provides a representation of the hemodynamics in pulmonary arteries at different palliation stages. The next part of this thesis is devoted to numerical coupling between 3D blood flow and reduced models, which leads to numerical instability in a number of applications. We first present the state of the art for the different coupling methods, and perform a stability analysis of each coupling approach, highlighting the pros and cons. Moreover we present the new 3D-3D coupling method which presents the same energy balance as the 3D-reduced model. We compare all these methods on three systemic or pulmonary patient-specific cases to assess the robustness and accuracy of each one. In the last part of this manuscript we present a framework to investigate the effect of uncertainty of clinical measurements on our methodology to estimate reduced models for surgery planning: we focus on the impact of clinical data uncertainty to estimate blood flow distribution and pressure loss due to a stenosis to assess if it should be removed or not.
216

Multi-scale modeling of muscle contraction : From stochastic dynamics of molecular motors to continuum mechanics / Modélisation multi-échelles de la contraction musculaire : De la dynamique stochastique des moteurs moléculaires à la mécanique des milieux continus

Kimmig, François 06 December 2019 (has links)
L'objectif de cette thèse est la modélisation mathématique des mécanismes de contraction musculaire à l'échelle microscopique dans le but de proposer et d'intégrer ces modèles dans un environnement de simulation cardiaque multi-échelle.Ce travail est réalisé dans le contexte de la médecine numérique, qui propose d'améliorer le traitement des patients par l'utilisation d'outils numériques.La première contribution de cette thèse est une analyse bibliographique des travaux expérimentaux caractérisant l’interaction actine-myosine et ses régulations afin de compiler les informations sous une forme utilisable pour le développement de modèles.Cette étape est une condition préalable essentielle à la modélisation.Nous proposons ensuite une hiérarchie de modèles de contraction musculaire à partir d'un modèle stochastique raffiné existant, mais validé uniquement pour les muscles squelettiques, en appliquant des hypothèses de simplification successives.Les étapes de simplification transforment l'équation différentielle stochastique initiale en une équation aux dérivées partielles avec une description qui fait partie de la famille de modèles dérivée du modèle Huxley'57.Une simplification supplémentaire conduit ensuite à un modèle décrit par un ensemble d'équations différentielles ordinaires.La pertinence des modèles proposés, qui ciblent différentes échelles de temps, est démontrée en les comparant aux données expérimentales obtenues avec des muscles cardiaques, et leur domaine de validité est étudié.Pour intégrer ces descriptions dans un environnement de simulation cardiaque, nous avons étendu ces modèles afin de prendre en compte les mécanismes de régulation de la force qui se produisent in vivo.Cela conduit à de nouvelles équations aux dérivées partielles.Ensuite, nous lions les modèles de contraction microscopiques à un modèle d’organe macroscopique.Nous suivons pour cela une approche fondée sur les principes thermodynamiques pour traiter la nature multi-échelle en temps et en espace du tissu musculaire aux niveaux continu et discret.La validité de cet environnement de simulation est démontrée en présentant sa capacité à reproduire le comportement du coeur et en particulier les caractéristiques essentielles de l'effet Frank-Starling. / This PhD thesis deals with the mathematical description of the micro-scale muscle contraction mechanisms with the aim of proposing and integrating our models into a multiscale heart simulation framework.This research effort is made in the context of digital medicine, which proposes to improve the treatment of patients with the use of numerical tools.The first contribution of this thesis is a literature review of the experimental works characterizing the actin-myosin interaction and its regulations to compile information in a useable form for the development of models.This stage is an essential prerequisite to modeling.We then propose a hierarchy of muscle contraction models starting from a previously proposed refined stochastic model, which was only validated for skeletal muscles, and applying successive simplification assumptions.The simplification stages transform the initial stochastic differential equation into a partial differential equation with a model that is part of the Huxley'57 model family.A further simplification then leads to a description governed by a set of ordinary differential equations.The relevance of these models, targeting different time scales, is demonstrated by comparing them with experimental data obtained with cardiac muscles and their range of validity is investigated.To integrate these microscopic descriptions into a heart simulation framework, we extend the models to take into account the force regulation mechanisms that take place in vivo, leading to the derivation of new partial differential equations.Then, we link the microscopic contraction models to the macroscopic organ model.We follow for that an approach based on the thermodynamical principles to deal with the multi-scale nature in time and space of the muscle tissue at the continuous and at the discrete levels.The validity of this simulation framework is demonstrated by showing its ability to reproduce the heart behavior and in particular to capture the essential features of the Frank-Starling effect.
217

Simulation stochastique des précipitations à fine échelle : application à l'observation en milieu urbain / Stochastic simulation of precipitation at fine scales : observation application in urban environment

Akrour, Nawal 27 November 2015 (has links)
Les précipitations ont une très grande variabilité sur une large gamme d'échelles tant spatiale que temporelle. Cette variabilité est une source importante d'incertitude pour la mesure, les applications et la modélisation, et au-delà pour la simulation et la prévision. De plus, les précipitations sont des processus extrêmement intermittents et possèdent plusieurs régimes d’invariance d’échelle. Le générateur de champ précipitant développé au cours de la thèse est basé sur la modélisation statistique de l’hétérogénéité et de l’intermittence des précipitations à fine échelle. L’originalité de la modélisation repose en partie sur l’analyse de données observées par un disdromètre à très fine résolution. Cette modélisation qui diffère des modèles existants dont la résolution est plutôt de l’ordre de la minute, voire de l’heure ou du jour, permet d’obtenir des simulations dont les propriétés sont réalistes sur une large gamme d’échelle. Ce simulateur permet de produire des séries chronologiques dont les caractéristiques statistiques sont similaires aux observations aussi bien à l’échelle de simulation (15s) qu’après dégradation (1h et 1 jour). Les propriétés multi-échelles du simulateur sont obtenues grâce à une approche hybride qui repose sur une simulation à fine échelle des évènements de pluie par un générateur multifractal associé à une simulation du support basée sur une hypothèse de type Poissonienne. Une étape de re-normalisation des taux de pluie assure l’adaptation du générateur à la zone climatique considérée.Le simulateur permet la génération de cartes 2D de lames d’eau. La méthodologie développée pour les séries chronologiques est étendue au cas 2D. Le simulateur stochastique multi-échelle 2D ainsi développé reproduit les caractéristiques géostatistiques et topologiques à la résolution de 1x1 km2. Ce générateur est utilisé dans le cadre d’une étude de faisabilité d’un nouveau système d’observation des précipitations en milieu urbain. Le principe de ce système repose sur l’utilisation de mesures opportunistes de l’affaiblissement subit par les ondes radios émises par les satellites géostationnaires TV-SAT dans la bande 10.7-12.7 GHz. De façon plus spécifique on suppose que les terminaux de réception TVSAT installés en ville chez les particuliers sont capables de mesurer de tels affaiblissements. A ce stade de l’étude nous ne disposons pas de telles observations. L’étude s’appuie donc sur des cartes de précipitations issues du générateur 2D et d’un réseau de capteur hypothétique. Le système d’observation envisagé permettra d’estimer les champs de précipitation (30x30 Km2) et avec une résolution spatiale de 0.5x0.5 Km2. / Precipitations are highly variable across a wide range of both spatial and temporal scales. This variability is a major source of uncertainty for the measurement and modeling, also for the simulation and prediction. Moreover, rainfall is an extremely intermittent process with multiple scale invariance regimes. The rain-field generator developed during the thesis is based on the fine-scale statistic modeling of rain by the mean of its heterogeneity and intermittency. The modeling originality partially rest on the analysis of fine-scale disdrometer data. This model differs from other existing models whose resolution is roughly a minute or even an hour or a day. It provides simulations with realistic properties across a wide range ofscales. This simulator produces time series with statistical characteristics almost identical to the observations both at the 15s resolution and, after degradation, at hourly or daily resolutions. The multi-scale properties of our simulator are obtained through a hybrid approach that relies on a fine scale simulation of rain events using a multifractal generator associated with a rain support simulation based on a Poissonian-type hypothesis. A final re-normalization step of the rain rate is added in order to adapt the generator to the relevant climate area. The simulator allows the generation of 2D water-sheets. The methodology developed in the first part is extended to the 2 Dimension case. The multi-scale 2D stochastic simulator thus developed can reproduce geostatistical and topological characteristics at the spatial resolution of 1x1 km2.This generator is used in the scope of the feasability study of a new observation system for urban area. The principle of this system is based on the opportunistic use of attenuation measurements provided by geostationary TV satellites which radio waves lay in the 10.7 to 12.7 GHz bandwidth. More specifically it is assumed that the SAT-TV reception terminals installed in private homes are able to measure such attenuations. At this stage of the study we do not have such observations. The study is therefore based on rainfall maps generated using the 2D generator in addition to a hypothetical sensor network. The considered observation system will allow to estimate precipitation fields (30 x 30 km2) with a spatial resolution of 0.5x0.5 km2.
218

Rendu multi-échelle de pluie et interaction avec l’environnement naturel en temps réel / Multiscale rain rendering and interaction with the natural environment in real-time

Weber, Yoann 15 November 2016 (has links)
La représentation des phénomènes météorologiques est un enjeu essentiel en Informatique Graphique dans l’optique d’obtenir des scènes extérieures visuellement réalistes. Depuis quelques années, les chercheurs se sont penchés sur la simulation de la pluie en synthèse d’images. Ce mémoire a pour but de présenter deux méthodes de rendu : une première méthode pour le rendu de la pluie, et une seconde pour le rendu des égouttements provenant des arbres. Notre modèle de rendu de pluie est une méthode multi-échelle permettant de tenir compte des propriétés locales et globales de ce phénomène. Nous avons réussi à mettre en corrélation la densité des gouttes proches de l’observateur (échelle mésoscopique) avec l’atténuation de la visibilité (échelle macroscopique), en fonction d’un seul paramètre global cohérent : l’intensité des précipitations. Cette méthode a fait l’objet d’une publication [56] dans la revue Computers & Graphics en 2015. D’autre part, nous basons notre méthode pour le rendu des égouttements sur une approche phénoménologique. Une telle approche s’avère plus adaptée pour gérer les grands espaces, et présente l’avantage d’être indépendante de la complexité de la scène. L’approche choisie s’appuie sur des expérimentations et des mesures hydrologiques effectuées par des chercheurs spécialisés dans l’hydrologie des forêts. Nous proposons ainsi un modèle d’égouttement cohérent, tenant compte des propriétés intrinsèques à chaque type d’arbres. Cette méthode a fait elle aussi l’objet d’une présentation à la conférence Eurographics Symposium on Rendering (EGSR) ainsi qu’une publication [57] au journal Computer Graphics Forum (CGF) en 2016. / This dissertation aims to present a coherent multiscale model for real-time rain rendering which takes into account local and global properties of rainy scenes. Our goal is to simulate visible rain streaks close to the camera as well as the progressive loss of visibility induced by atmospheric phenomena. Our model proposes to correlate the attenuation of visibility, which is due in part to the extinction phenomenon, and the distribution of raindrops in terms of rainfall intensity and camera's parameters. Furthermore, this method proposes an original rain streaks generation based on spectral analysis and sparse convolution theory. This allows an accurate control of rainfall intensity and streaks appearance, improving the global realism of rainy scenes. We also aim at rendering interactive visual effects inherent to complex interactions between trees and rain in real-time in order to increase the realism of natural rainy scenes. Such a complex phenomenon involves a great number of physical processes influenced by various interlinked factors and its rendering represents a thorough challenge in Computer Graphics. We approach this problem by introducing an original method to render drops dripping from leaves after interception of raindrops by foliage. Our method introduces a new hydrological model representing interactions between rain and foliage through a phenomenological approach. Our model reduces the complexity of the phenomenon by representing multiple dripping drops with a new fully functional form evaluated per-pixel on-the-fly and providing improved control over density and physical properties. Furthermore, an efficient real-time rendering scheme, taking full advantage of latest GPU hardware capabilities, allows the rendering of a large number of dripping drops even for complex scenes.
219

Modélisation multi-échelle parallélisée pour la prédiction de structures de grains dendritiques couplant les éléments finis, un automate cellulaire et un réseau de paraboles / Development of a parallel multi-scale model of dendritic growth coupling the FEM (Finite Element Method) and CAPTN (Cellular Automaton Parabolic Thick Needles)

Fleurisson, Romain 26 August 2019 (has links)
La modélisation multi-échelle des procédés de solidification présente un grand intérêt pour les industries. Toutefois, il est difficile de coupler les phénomènes prenant place à de multiples échelles pour obtenir des simulations quantitatives à grande échelle. Ceci est réalisé en combinant trois méthodes : les éléments finis (FE), un automate cellulaire (CA) et la méthode Parabolic Thick Needle(PTN). La méthode FE permet une résolution des équations de conservation écrites pour des quantités moyennées, ce qui est adapté aux calculs de grands domaines. Elle permet la description macroscopique des transferts de chaleur et de masse. De plus, la méthode CA permet de suivre le développement de l’enveloppe de chaque grain dendritique à une échelle mésoscopique. Le couplage de ces deux méthodes est le modèle CAFE et il a démontré son efficacité pour simuler quantitativement la solidification et notamment la transition colonnaire - équiaxe. Le Dendritic Needle Network (DNN) est une méthode mésoscopique introduite récemment. Celle-ci s’appuie sur la conservation de la masse de soluté à proximité des pointes dendritiques pour calculer avec précision leur cinétique de croissance. Comme cette méthode repose sur l’estimation directe du gradient de composition à l’interface solide/liquide, le régime de croissance n’est plus supposé stationnaire. Nous introduisons la méthode Parabolic Thick Needle PTN reprenant la méthode de croissance du DNN pour une pointe. Elle est implémentée avec une méthode des éléments finis pour résoudre le flux de soluté est largement validé par rapport aux résultats analytiques provenant de la solution d’Ivantsov. Le couplage du CAFE avec la cinétique de croissance provenant du PTN permet d’obtenir un modèle unique de solidification s’appuyant sur 3 échelles. La grille CA gère à la fois la forme des enveloppes des grains et les mécanismes de ramification. Le maillage FE est utilisé pour résoudre les problèmes de flux et de conservation de masse et d’énergie à la fois à l’échelle de la couche de soluté de la pointe et à l’échelle du domaine simulé. Ceci est rendu possible grâce à une stratégie de remaillage anisotrope multi-critères. Diverses simulations démontrent les capacités du modèle. Les pistes d’amélioration sont développées pour espérer, à terme, une simulation 3D d’expériences de laboratoire. / Multiscale modelling of solidification processes is of great interest for industries. However coupling the multiple scale phenomena to reach quantitative large simulations is challenging. This is achieved using a combination of three methods : the Finite Element (FE), the Cellular Automaton (CA) and the Parabolic Thick Needle (PTN). The FE method provides a solution of the conservation equations, written for volume average quantities, that is suitable for large domain size computations. It serves for macroscopic description of heat and mass transfers. Additionally, the CA method tracks the development of the envelope of each individual dendritic grain at a mesoscopic scale. The coupling of these two methods is the CAFE model and was demonstrated to provide efficient and quantitative simulations of the columnar-to-equiaxed transition for instance. The Dendritic Needle Network (DNN) is another mesoscopic method recently introduced. It uses solute mass balance considerations in the vicinity of the tip of the dendrites to compute accurately the growth kinetics. Because it relies on adirect estimation of the composition gradient at the solid-liquid interface, steady state growth regime is no longer assumed. We introduce the Parabolic Thick Needle (PTN) method inspired from the DNN’s computed growth idea for one dendritetip. Its implementation with a FE method to solve the solute flow is extensively validated against analytical results given by the Ivantsov solution. Coupling CAFE with PTN computed growth kinetics provides a unique solidification model. The CA grid handles both the shape of the grain envelopes and branching mechanisms. The FE mesh is used to solve flux and conservation of mass and energy at both the scale of the dendrite tip solute layer and the domain dimensions. It is possible thanks to adaptive remeshing strategies. Various simulations demonstrate the capabilities of the model. The improvement areas are being developed in order to hope, in the long term, for 3D simulation laboratory experiments.
220

Un cadre algébrique pour le raisonnement qualitatif en présence d'informations hétérogènes : application aux raisonnements multi-échelle et spatio-temporel / An algebraic framework for qualitative reasoning in the presence of heterogeneous information : application to multi-scale and spatio-temporal reasoning

Cohen-Solal, Quentin 11 December 2017 (has links)
Parmi les différentes formes de raisonnement étudiées dans le contexte de l'intelligence artificielle, le raisonnement qualitatif permet d'inférer de nouvelles connaissances dans le contexte d'informations imprécises, incomplètes et dépourvues de valeurs numériques. Il permet par exemple de déduire de nouvelles informations à partir d'un ensemble d'informations spatiales telles que « la France est frontalière de l'Allemagne », « la Suisse est à l'est de la France », « l'Italie est en Europe » et « le Luxembourg est proche de la France ». Il peut également être utilisé pour résoudre des abstractions de problèmes quantitatifs difficiles à résoudre, afin par exemple d'accélérer la résolution de ces problèmes.De nombreux formalismes de raisonnement qualitatif ont été proposés dans la littérature. Ils ne se focalisent cependant que sur un seul aspect du monde, alors que la majorité des applications requièrent la prise en compte d'informations hétérogènes. Afin de répondre à ces besoins, plusieurs combinaisons et extensions de formalismes qualitatifs, comme le raisonnement spatio-temporel et le raisonnement multi-échelle, ont récemment été proposées dans la littérature. Le raisonnement spatio-temporel permet de raisonner dans le contexte d'informations spatiales et temporelles interdépendantes. Le raisonnement multi-échelle permet de raisonner avec des informations de précisions différentes, et en particulier de lever des incohérences apparentes.Dans cette thèse, nous nous intéressons au raisonnement multi-échelle, au raisonnement spatio-temporel et aux combinaisons de formalismes qualitatifs.Nous proposons d'étendre le raisonnement qualitatif temporel multi-échelle pour prendre en compte le fait que les intervalles de temps peuvent être perçus comme des instants à certaines échelles de précision, de formaliser intégralement ce raisonnement et d'étudier la décision de la cohérence dans ce contexte ainsi que sa complexité. Nous montrons en particulier que ce formalisme permet de décider la cohérence et que le problème de décision de la cohérence est NP-complet, même dans le cas le plus simple.En outre, nous proposons un cadre général permettant de raisonner sur les séquences temporelles d'informations qualitatives, une forme de description spatio-temporelle. Ce cadre permet notamment de raisonner dans le contexte d'évolutions complexes. Par exemple, les entités considérées peuvent avoir des caractéristiques préservées au cours du temps, évoluer de manière dépendante les unes par rapport aux autres, tout en ayant un comportement potentiellement irréversible et différent selon leur nature. De plus, dans ce cadre, le raisonnement est plus performant computationnellement que les approches de l'état de l'art. Nous étudions en particulier la décision de la cohérence dans le contexte spécifique de régions mobiles de taille constante, et montrons que ce cadre permet effectivement de décider la cohérence.De surcroît, nous proposons un cadre formel unifiant plusieurs formes d'extensions et de combinaisons de formalismes qualitatifs, incluant le raisonnement multi-échelle et les séquences temporelles. Ce cadre permet de raisonner dans le contexte de chacune de ces combinaisons et extensions, mais également d'étudier de manière unifiée la décision de la cohérence et sa complexité. Nous établissons en particulier deux théorèmes complémentaires garantissant que la décision de la cohérence est polynomiale, et nous les utilisons pour prouver que plusieurs fragments de séquences temporelles sont traitables.Nous généralisons également la définition principale de formalisme qualitatif afin d'inclure des formalismes qualitatifs exclus des définitions de la littérature, importants dans le cadre des combinaisons. / In this thesis, we are interested in qualitative multi-scale reasoning, qualitative spatio-temporal reasoning and combinations of qualitative formalisms.We propose to extend the multiscale temporal reasoning to take into account the fact that time intervals can be perceived as instants at certain scales of precision, to fully formalize this reasoning and to study its consistency problem. We show in particular that this formalism decides consistency and that the consistency problem is NP-complete, even in the simplest case.In addition, we propose a general framework for reasoning on temporal sequences of qualitative information, a form of spatio-temporal description. This framework allows for reasoning in the context of complex evolutions. For example, the considered entities may have characteristics preserved over time, evolve in a dependent manner with respect to each other, while having a potentially irreversible and different behavior depending on their nature. Moreover, in this context, reasoning is computationally more efficient than state-of-the-art approaches. In particular, we study the consistency problem in the specific context of constant-size moving regions, and show that this framework actually decides consistency.Furthermore, we propose a formal framework unifying several forms of extensions and combinations of qualitative formalisms, including multi-scale reasoning and temporal sequences. This framework allows one to reason in the context of each of these combinations and extensions, but also to study in a unified way the consistency problem. In particular, we establish two complementary theorems guaranteeing that the consistency problem is polynomial, and we use them to prove that several fragments of temporal sequences are tractable.

Page generated in 0.0702 seconds