Spelling suggestions: "subject:"échelle""
141 |
Approches d'homogénéisation numériques incrémentales pour le calcul des structures hétérogènes élasto-plastiques et élasto-visco-plastiques / Incrementals numerical homogenization's approaches for the computation of elastoplastic and elasto-viscoplastic heterogeneous structuresHoang, Trung Hieu 16 December 2015 (has links)
Ce travail porte sur le développement de méthodes d'homogénéisation numériques pour les matériaux non linéaires élastoplastiques et élasto-visco plastiques avec pour finalité le calcul de structures hétérogènes faite de ces matériaux sous chargements cycliques. Les techniques proposées se basent sur des approches incrémentales. Dans une première partie, nous développons une méthodologie pour déterminer la taille du VER dans le cas non linéaire pour les types de comportements cités précédemment. Pour cela, une étude de la convergence statistique de paramètres d'une loi semi-analytique incrémentale est menée. Cette méthode permet de diminuer les temps de calcul pour l'identification des paramètres et ainsi qu'une meilleure approximation de la loi de comportement effective, qui peut ensuite être utilisée dans un calcul de structure. Dans une deuxième partie, nous proposons une méthode d'homogénéisation numérique incrémentale dans laquelle l'originalité est de calculer le module tangent effectif par superposition de solutions numériques calculées par éléments finis sur le VER, en exploitant la linéarisation du problème à caque incrément. Un schéma alternatif aux techniques telles que la méthode Eléments finis multi niveaux (FE2) est ainsi développé, avec pour avantage un nombre réduit de calculs éléments finis à effectuer sur le VER. La technique est appliquée au calcul de structures hétérogènes non linéaires élastoplastiques, pour des microstructures anisotropes ou de morphologies complexes, et pour des lois de comportement locales élastoplastiques avec écrouissage isotrope et cinématique / In this work, computational homogenization methods for nonlinear materials with elasto-plastic and elasto-visco-plastic phases are developed, with application to the computation of heterogeneous structures made of these nonlinear materials under cyclic loading. The proposed techniques are based on incremental approaches. In a first part, we develop a methodology to determine the size of an RVE in the nonlinear case for the types of nonlinear behavior mentioned above. For this purpose, a convergence study of the parameters of a semi-analytical incremental constitutive law is carried out. This method allows reducing computational times related to the identification of these parameters and provides a better approximation of the effective constitutive relationship, which can then be used in a structure calculation once identified. In a second part, we propose an incremental computatioal homogenization method in which the originality is to compute directly the effective tangent tensor by superposition of numerical solutions computed by finite elements on an RVE, by taking advantage of the linearization of the problem at each increment. An alternative scheme to classical multilevel finite element techniques (FE2) is then developed, with the advantage of a reduced number of computations to perform on the RVE. The technique is applied to the computation of heterogeneous, nonlinear structures, for anisotropic microstructures or with complex morphologies and for phase with elastoplastic behavior with isotropic and kinematic hardening
|
142 |
Étude de la transformation martensitique et de la reversion de l’alliage PuGa 1at.% / Study of the martensitic transformation and reversion process in the PuGa 1at.% alloyLalire, Fanny 18 December 2015 (has links)
L’alliage PuGa 1at.% stabilisé en phase δ n’existe que dans un état métastable et présente donc un caractère très sensible à l’environnement extérieur (transformation de phase sous sollicitations thermiques et mécaniques). L'originalité de ce travail consiste en une caractérisation quantitative In Situ de la transformation martensitique δ → α’ (nature et fraction des phases en présence, évolutions de paramètres de maille et microdéformations générées...) ainsi qu’en une étude microstructurale associées à différentes conditions de transformation (températures et sollicitations mécaniques). Le caractère isotherme pour la transformation de l’alliage PuGa 1at.% a été confirmé. L’analyse des cinétiques de transformation isotherme menée avec le modèle de Pati et Cohen a permis de discuter les différents phénomènes mis en jeu lors de la transformation (germination autocatalytique, interaction entre le nouveau variant formé et la matrice). Les modifications engendrées lorsque la matière est contrainte (augmentation de température Ms, orientation des produits de transformation) ont pu être calculées à partir du formalisme de Patel et Cohen. Des simulations numériques microstructurales ont également été réalisées afin d’appréhender l’effet des contraintes associées à la déformation libre de transformation sur la morphologie et l’arrangement des plaquettes de martensite, en regard aux observations expérimentales par microscopie optique et microscopie électronique à balayage. La confrontation directe de l’ensemble des résultats obtenus a permis de mettre en évidence l’influence majeure des contraintes accumulées dans la matière durant la transformation. En effet, alors qu’un effet auto-catalytique contrôle largement les premiers instants de la cinétique, une accumulation d’interactions mécaniques défavorables apparait progressivement expliquant le caractère partiel de cette transformation. L’étude de la transformation martensitique transformée à basses températures et sous contraintes a été complétée par l’étude de sa réversion en phase δ afin de comprendre les différents mécanismes pilotant cette réversion. Ce travail a montré l’existence d’une compétition entre deux modes de réversion direct et indirect, ce dernier étant étroitement lié à la mobilité du gallium et la stabilité thermodynamique des différentes phases de l’alliage en température / The δ-stabilized PuGa 1at.% is only in a metastable state and therefore is very sensitive to the external environment (phase transformation under thermal and mechanical loading). The originality of this work consists in a quantitative In Situ characterization of the δ → α' martensitic transformation (nature and amount of existing phases, evolution of lattice parameters and induced microstrains …) as well as a microstructural study conducted under different transformation conditions (temperature and mechanical loading). The isothermal character of the transformation kinetics in the PuGa 1at.% was confirmed. The analysis of the kinetics from the Pati and Cohen formalism gave the opportunity to investigate the mechanisms involved during the transformation (autocatalytic nucleation, interaction between the new variant formed and the matrix). Modifications induced in a stressed material (increase in temperature Ms, crystallographic orientation of transformation products) were calculated from the Patel and Cohen formalism. Microstructural numerical simulations were also performed in order to understand the effect of elastic interactions associated with transformation eigenstrain on the martensite plate morphology and plates arrangement in regard of the observations by SEM and OM. The direct confrontation of all results highlighted the large influence of accumulated stresses in the material during the transformation. Indeed, while an autocatalytic effect controls the first steps of the kinetic, an accumulation of unfavorable mechanical interactions occurs gradually explaining the partial nature of this transformation. The study of the martensitic transformation occurring at low temperature and under stresses was complemented by the study of its reversion into the δ phase in order to grasp the different mechanisms driving this reversion. This work shows the existence of competition between direct and indirect reversion modes, the latter being closely related to the mobility of gallium and to the thermodynamic stability of different phases of the alloy versus temperature
|
143 |
Modèles multi-échelles pour l'analyse d'images : application à la turbulenceZille, Pascal 07 November 2014 (has links)
Cette étude a pour cadre l’analyse d’images dans un contexte multi-échelles, une attention particulière étant portée sur les images fluides dans un contexte turbulent. Nous traitons en premier lieu le problème de l’estimation de mouvement. Dans un contexte multi-échelles, on néglige bien souvent dans un premier temps la contribution des fines échelles du problème. Nous proposons, pour pallier ce problème, plusieurs termes d’attache aux données dérivant de l’OFCE. Ceux-ci permettent, à chaque niveau d’échelle, la prise en compte de ces composantes fines échelles. Les performances de ces termes sont expérimentalement démontrées sur des images générales et fluides. Nous abordons en second lieu le problème de super-résolution d’images de scalaires passifs : nous souhaitons reconstruire, de manière explicite, certains détails manquants au sein d’images basse résolution données. Pour cela, nous utilisons plusieurs modèles issus de la simulation des grandes échelles ainsi que des méthodes d’assimilation de données permettant d’assurer une certaine cohérence temporelle de la solution. Les approches présentées sont expérimentalement étudiées sur différentes séquences d’images. Enfin, nous proposons une méthode d’estimation multi-résolution permettant de combiner de manière simultanée les informations issues des différents niveaux de résolution. / This thesis is concerned with image analysis within a multi-scale framework. Specific attention is given to fluid images in the presence of turbulence. In a first part, we adress the problem of multi-scale motion estimation from image sequences. Starting from OFCE equation, we derive several image data terms allowing to take into account, while estimating the solution coarse scales, the contribution of the finer scales components usually neglected in classic approaches. The performances of the resulting estimators is demonstrated on both general and fluid images. The second step of this study is concerned with the problem of passive scalar images super- resolution : starting from low resolution input images, we aim at recovering some of the missing high frequencies. We proposed several methods inspired by the LES framework, as well as data assimilation techniques, in order to ensure the solution consistency over time. Such approaches are experimented and compared over various image sequences. Finally, we propose a multi-resolution estimation method simultaneously combining informations from different grid levels.
|
144 |
Etude par simulations de dynamique des dislocations des effets d'irradiation sur la ferrite à haute température / Study by dislocation dynamics simulations of radiation effects on the plasticity of ferrite at high temperatureShi, Xiangjun 01 December 2014 (has links)
Cette étude s’insère dans le cadre d’une modélisation multi-échelles du durcissement et de la fragilisation par irradiation de l’acier de cuve des Réacteurs nucléaires à Eau Pressurisée (REP). Des simulations en Dynamique des Dislocations (DD) ont été menées pour décrire la plasticité du fer pur irradié à l’échelle du grain et fournir aux échelles supérieures des informations quantitatives telles que la force d’épinglage des dislocations par les boucles induites par l’irradiation. Nous avons débuté notre étude par l’analyse des interactions élémentaires entre une dislocation coin et différents types de boucles. Un nouveau modèle de DD a été identifié puis validé, que ce soit d’un point de vue qualitatif (mécanismes d’interaction) ou quantitatif (contrainte critique), en comparant ces résultats à ceux obtenus en Dynamique Moléculaire dans la littérature. L’influence de la taille des boucles et de la vitesse de déformation a été particulièrement étudiée.Des simulations élémentaires impliquant cette fois-ci une dislocation vis et les mêmes défauts d’irradiation ont permis d’étendre le domaine de validité du modèle de DD, en se comparant toujours aux résultats de DM de la littérature. Enfin, un premier jeu de simulations massives entre une dislocation coin et différents types de boucles a permis d’obtenir une première estimation de la valeur de la force d’obstacle pour ce type de défauts, α≈0,26. Cette valeur est en accord avec différents travaux précédents, expérimentaux ou numériques, et permet d’envisager avec confiance de futurs travaux s’appuyant sur ce nouveau modèle de DD. / This study is a contribution to the multi-scale modeling of hardening and embrittlement of the vessel steel in Pressurized Water Reactors (PWR) under irradiation conditions. Dislocation Dynamics simulations (DD) were conducted to describe the plasticity of irradiated iron at grain scale. Quantitative information about the pinning strength of radiation-induced loops was extracted and can be transferred at crystal plasticity scale. Elementary interactions between an edge dislocation and different types of loops were first analyzed. A new model of DD was identified and validated, both qualitatively in terms of interaction mechanisms and quantitatively in terms of critical stress, using Molecular Dynamics results available in the literature. The influence of the size of the loops and of the strain rate was particularly studied. Elementary simulations involving a screw dislocation and the same radiation-induced defects were conducted and carefully compared to available MD results, extending the range of validity of our model. Finally, a set of massive simulations involving an edge dislocation and a large number of loops was performed and allowed a first estimation of the obstacle strength for this type of defects (α≈0.26). This value is in a good agreement with previous experimental and numerical studies, and gives us confidence in future work based on this new DD model.
|
145 |
Modélisation morphologique multi-échelles de matériaux cimentaires -- Application à la prédiction de propriétés effectives de diffusion / Morphological multisscale modeling of cementitious materials -- Application to effective diffusive properties predictionBogdan, Mateusz 12 June 2015 (has links)
L'objectif de la présente thèse et de développer un cadre d'étude et de simulation apte à prédire les propriétés effectives de diffusion dans les matériaux cimentaires saturés. Le principe suivi, fondé sur les approches multi-échelles séquencées, permettra de modéliser chaque échelle d'intérêt, depuis le gel des C-S-H, jusqu'au matériau béton, et ainsi via des simulations de prédire les coefficients de diffusion effectifs.Le cadre d'étude est donc fondé sur les points clés suivant :- Des morphologies de type "matrice - inclusion" sont générées via des excursions de champs aléatoires corrélés tri-dimensionnels. Cette approche, combinée avec quelques opérations morphologiques, permet la génération de morphologies inclusionnaires 3D suivant des distributions de tailles imposées. Il est ensuite possible de faire évoluer ces morphologies, depuis un état initial, en fonction d'un modèle prescrit (par exemple en termes de fraction volumiques), via le seuil de l'excursion.- Les cibles morphologiques de chaque échelle considérées tentent de refléter les résultats expérimentaux et modèles les plus communément admis. En supplément, à l'échelle de la pâte de ciment, un modèle "simple" d'hydratation est développé afin de prédire l'évolution de celle-ci dans le temps en termes de fractions volumiques. Le choix a été fait d'utiliser pour fondement un modèle simple (Jennings & Tennis), incorporant des paramètres essentiels, tels que la composition minéralogique du ciment ou le rapport e/c. Des modifications mineures ont été apporté au modèle, afin de prendre en compte de récents résultats expérimentaux, concernant principalement la fin de l'hydratation ainsi que sa cinétique.- Le cadre d'homogénéisation a été construit pour être utilisable à toutes les échelles considérées, et il permet ainsi de prédire les propriétés effectives de diffusion avec des considération énergétiques d'équivalence entre échelles. De façon analogue à la théorie de Hill pour l'élasticité, le cadre d'étude assure une séparation d'échelle cohérente vis-à-vis des propriétés effectives de diffusion.- Enfin, d'un point de vue numérique, les simulations utilisent les méthodes E-FEM, couplées à l'utilisation de maillages non-adaptés sur lesquels les morphologies sont "projetées". De cette façon, les discontinuités géométriques (discontinuité de propriétés matériaux) sont sont assurés par les élément finis enrichis, et ne requièrent pas d'éléments joint, ou de "moyennage" de propriétés.Les résultats de chaque échelle sont utilisés comme paramètres d'entrés pour les échelles suivantes. Depuis l'échelle des hydrates (C-S-H), jusqu'à l'échelle du béton, les coefficients de diffusion effectifs sont ainsi estimés. / The aim of the present Ph.D. is to develop a methodology and a simulation framework able to predict as accurately as possible effective properties regarding diffusion in saturated cement based materials. A sequenced multiscale framework is developed to perform numerical homogenization on diffusive properties, and thus predict effective properties. The general outline is to model every scale in concrete-like materials, from the C-S-H gel, to the concrete scale, and with the help of a proper framework, be able to predict effective properties. The methodology relies on the following key points for every considered scale :- Inclusion-matrix like morphologies are generated through level set methods applied to multi-dimensional correlated random fields. This approach, together with few morphological operations allows to generate 3D morphologies with given particle size distributions (PSD), or pore size distributions. Then, it is also possible, from the initial state, to make those morphologies evolve according to any descriptive model (e.g. in terms of volume fraction), via the level set.- The morphological description of each scale is chosen according to the most acknowledged experimentations and models. In addition, at the cement paste scale, a hydration model was developed to predict the evolution of the cement paste through time, in terms of volume fractions. The choice was made to keep a simple model (Jennings & Tennis), with few but essential input parameters (mineral cement composition, w/c ratio, PSD). It has only been modified to include recent experimental results, such as the maximal hydration degree, or the hydration rates.- The upscaling framework was built to suit every considered scale, and allows to assess effective properties based on energy conservation principles. Similar to Hill's theory for elasticity, the framework is build to ensure to proper scale separation regarding effective diffusion coefficients.- Lastely, the numerical context is based on E-FEM techniques, which allows to use unstructured meshes, on which the morphologies are projected. This way, any material discontinuity in dealt within the FE, and thus does not require averaging properties, or joint elements. Results from every scale will be used as inputs at the higher scales, and effective diffusion coefficients are thus estimated.
|
146 |
A mathematical study on coupled multiple timescale systems, synchronization of populations of endocrine neurons / Etude mathématique de systèmes multi-échelles en temps couplés, synchronisation de populations de neurones endocrinesKöksal Ersöz, Elif 13 December 2016 (has links)
Dans cette thèse, nous étudions les propriétés de synchronisation d'oscillateurs lents-rapides inspirés de la neuroendocrinologie et des neurosciences, en se concentrant sur les effets des phénomènes de type canard et bifurcations dynamiques sur le comportement collectif.Nous partons d'un système de dimension 4 qui représente les caractéristiques dynamiques qualitatives et quantitatives du profil de sécrétion de la neurohormone GnRH (gonadotropin releasing hormone) au cours d'un cycle ovarien. Ce modèle est constitué de deux oscillateurs de FitzHugh-Nagumo avec pour chacun des échelles de temps différentes. Le couplage unidirectionnel de l'oscillateur lent (représentant l'activité moyenne d'une population de neurones régulateurs) vers l'oscillateur rapide (représentant l'activité moyenne d'une population de neurones sécréteurs) donne une structure à trois échelles de temps. Le comportement de l'oscillateur rapide est caractérisé par une alternance entre un régime de type cycle de relaxation et un régime de quasi-stationnaire qui induit des transitions de type canard dans le modèle ; ces transitions ont un fort impact sur le modèle de sécrétion du système de dimension 4. Nous proposons un premier pas supplémentaire dans la modélisation multi-échelles (en espace) du système GnRH, c'est-à-dire que nous étendons le système original à 6 dimensions en considérant deux sous-populations distinctes de neurones sécréteurs recevant le même signal des neurones de régulation. Cette étape nous permet de enrichir les motifs possibles de sécrétion de GnRH tout en gardant un cadre dynamique compact et en préservant la séquence des événements neuro-sécréteurs capturés par le modèle de dimension 4, à la fois qualitativement et quantitativement.Une première analyse du modèle GnRH étendu à 6 dimensions est présentée dans le Chapitre 2, où nous montrons à l'aide d'un système minimal de dimension 5 l'existence de trajectoires de type canard dans des systèmes lents-rapides couplés présentant des points pseudo-stationnaires. Le couplage provoque la séparation des trajectoires correspondant à chaque sécréteur qui se retrouvent de chaque côté du canard maximal (associé soit à un point pseudo-stationnaire de type noeud soit à un pseudo-col). Nous explorons les rapports entre les canards en présence et le couplage, ainsi que leur impact sur les motifs de sécrétion collective du modèle de dimension 6. Nous identifions deux sources différentes de (dé)synchronisation due aux canards dans les événements sécrétoires, qui dépendent du type de point pseudo-stationnaire sous-jacent.Dans le Chapitre 3, nous proposons une modélisation possible des comportements complexes de sécrétion de GnRH qui ne sont pas capturés par le modèle de dimension 4, à savoir, une décharge avec 2 ``bosses'' et une désynchronisation partielle avant la décharge, en utilisant le modèle de dimension 6 précédemment construit. Pour obtenir une décharge avec deux bosses, il est essentiel d'utiliser des fonctions de couplage asymétriques dépendant du régulateur ainsi que d'introduire de l'hétérogénéité dans les sous-populations de sécréteurs. Pendant le régime pulsatile, il apparaît que le signal régulateur varie lentement et, ce faisant, provoque une bifurcation dynamique qui est responsable de la perte de synchronie dans le cas de sécréteurs non identiques et asymétriquement couplés. Nous introduisons des outils analytiques et numériques pour façonner et quantifier ces caractéristiques supplémentaires et les intégrer dans le profil complet de sécrétion. / This dissertation investigates synchronization properties of slow-fast oscillators inspired from neuroendocrinology and neuronal dynamics, focusing on the effects of canard phenomena and dynamic bifurcations on the collective behavior. We start from a 4-dimensional system which accounts for the qualitative and quantitative dynamical features of the secretion pattern of the neurohormone GnRH (gonadotropin releasing hormone) along a whole ovarian cycle. This model involves 2 FitzHugh-Nagumo oscillators with different timescales. Unidirectional coupling from the slow oscillator (representing the mean-field activity of a population of regulating neurons) to the fast oscillator (representing the mean-field activity of a population of the secreting neurons) gives a three timescale structure. The behavior of the fast oscillator is characterized by an alternation between a relaxation cycle and a quasi-stationary state which introduces canard-mediated transitions in the model; these transitions have a strong impact on the secretion pattern of the 4-dimensional system. We make a first step forward in multiscale modeling (in space) of the GnRH system, namely, we extend the original system to 6 dimensions by considering two distinct subpopulations of secreting neurons receiving the same signal from the regulating neurons. This step allows us to enrich further the GnRH secretion pattern while keeping a compact dynamic framework and preserving the sequence of neurosecretory events captured by the 4-dimensional model, both qualitatively and quantitatively. An initial analysis of the extended 6-dimensional GnRH model is presented in Chapter 2, where we prove using a 5D minimal model the existence of canard trajectories in coupled systems with folded singularities. Coupling causes separation of trajectories corresponding to each secretor by driving them to different sides of the maximal canard (associated with either a folded-node or a folded-saddle singularity). We explore the impact of the relationship between canard structures and coupling on the collective secretion pattern of the 6-dimensional model. We identify two different sources of canard-mediated (de)synchronization in the secretory events, which depend on the type of underlying folded singularity. In Chapter 3, we attempt to model complex behaviors of the GnRH secretion not captured by the 4-dimensional model, namely, a surge with 2 bumps and partial desynchronization before the surge, by using the 6-dimensional model previously constructed. Regulatory-dependent asymmetric coupling functions and heterogeneity in the secretor subpopulations are essential for obtaining such a 2-bump surge. During the pulsatile regime, we find that the slowly varying regulatory signal causes a dynamic bifurcation, which is responsible for loss of synchrony in asymmetrically coupled nonidentical secretors. We introduce analytic and numerical tools to shape and quantify the additional features embedded within the whole secretion pattern.
|
147 |
Prédiction du transfert radiatif au sein d’une flamme prémélangée swirlée à l’aide d’une méthode Quasi-Monte Carlo couplée à la simulation aux grandes échelles / Quasi-Monte Carlo computation of radiative heat transfer in coupled Large Eddy Simulation of a swirled premixed flamePalluotto, Lorella 04 July 2019 (has links)
La prédiction des flux aux parois joue un rôle déterminant dans le cycle de vie des chambres de combustion. Le transfert de chaleur de la flamme aux parois est entraîné, outre la convection, également par le rayonnement des gaz chauds au sein de la chambre. Afin d’intégrer les contributions convectives et radiatives au flux pariétal il est nécessaire de résoudre simultanément l’équation de transfert radiatif et les équations régissant l’écoulement réactif. Quand les méthodes de Monte Carlo sont couplées aux simulations aux grandes échelles (LES), de telles simulations deviennent très coûteuses. L’objectif de cette thèse est donc d’investiguer une technique pour améliorer l’efficacité de la méthode MC, basée sur un mécanisme alternatif d’échantillonnage appelée intégration Quasi-Monte Carlo (QMC). Au cours de cette thèse, la méthode QMC a été couplée à une simulation LES dans une configuration où le rayonnement joue un rôle très important : la flamme méthane-air de la chambre Oxytec. La comparaison entre les simulations couplées et non couplées avec les données expérimentales montre que le rayonnement thermique a un impact sur la topologie de l’écoulement et de la flamme. Enfin, un bon accord est trouvé entre le flux de chaleur pariétal prédit par la simulation et les données expérimentales. / The prediction of wall fluxes is a significant aspect in the life cycle of combustors, since it allows to prevent eventual wall damages. Heat transfer from flame to the walls is driven, apart from convection, also by radiation of burnt gases inside the chamber. In order to correctly account for both convective and radiative contributions to wall fluxes, the simultaneous solution of the radiative transfer equation (RTE) and the governing equations for reactive flows is required. However, multi-physics simulations where MC methods are coupled to Large Eddy Simulation (LES), remain very costly. The purpose of this study is then to investigate improvements of MC methods, by using an alternative sampling mechanism for numerical integration usually referred to as Quasi-Monte Carlo (QMC) integration. In this study, QMC method is coupled to Large Eddy Simulation (LES) of a configuration where the radiation plays an important role: the methane-air flame investigated during the experimental campaign Oxytec. Coupled and non-coupled simulations are compared and their comparison with experimental data shows that thermal radiation has an impact on both flow and flame topology. Finally a good agreement is found between numerical wall fluxes and experimental conductive fluxes.
|
148 |
Modélisation de la combustion turbulente : application des méthodes de tabulation de la chimie détaillée l'allumage forcé / Numerical simulation of forced ignition using LES coupled with a tabulated detailed chemistry approachVallinayagam pillai, Subramanian 12 January 2010 (has links)
L'optimisation des systèmes d'allumage est un paramètre critique pour la définition des foyers de combustion industriels. Des simulations aux grandes échelles (ou LES pour Large-Eddy Simulation) d'un brûleur de type bluff-body non pré-mélangé ont été menées afin de comprendre l'influence de la position de la bougie sur la probabilité d'allumage. La prise en compte de la combustion est basée sur une méthode de tabulation de la chimie détaillée (PCM-FPI pour Presumed Conditional Moments - Flame Prolongation of ILDM). Les résultats de ces simulations ont été confrontés des résultats expérimentaux disponibles dans la littérature. Dans un premier temps, les mesures de vitesse et du champ de richesse à froid sont comparées aux résultats de la simulation pour évaluer les capacités de prédiction en terme de structure de l'écoulement et de mélange turbulent. Un suivi temporel des vitesses et de la fraction de mélange est réalisé à différents points pour déterminer les fonctions de densité de probabilité (ou PDF)des variables caractéristiques de l'écoulement, à partir des champs résolus en LES. Les PDFs ainsi obtenues servent l'analyse des phénomènes d'allumages réussis ou déficients rencontrés expérimentalement. Des simulations d'allumage forcé ont été effectuées pour analyser les différents scénarios de développement de la flamme. Les corrélations entre les valeurs locales (fraction de mélange, vitesse) autour de la position d'allumage et les chances de succès de développement du noyau de gaz brûlés sont alors discutées. Enfin, une extension de la méthode PCM-FPI avec prise en compte des effets d'étirement est développée à l'aide d'une analyse asymptotique, puis confrontée aux résultats de mesures expérimentales. / The optimization of the ignition process is a crucial issue in the design of many combustion systems. Large eddy simulation (LES) of a conical shaped bluff-body turbulent non-premixed burner has been performed to study the impact of spark location on ignition success. The chemistry part of the simulation is done using tabulated detailed chemistry approach. This burner was experimentally investigated by Ahmed et al at Cambridge (UK). The present work focuses on the case without swirl for which detailed measurements are available. First, cold fkow measurements of velocities and mixture fraction are compared with their LES counterparts, to assess the prediction capabilities of simulations in terms of flow and turbulent mixing. Time history of velocities and mixture fraction are recorded at selected spots, to probe the resolved probability density function (pdf) of flow variables, in an attempt to reproduce, from the knowledge of LES resolved instantaneous flow conditions, the experimentally observed reasons of success or failure of spark ignition. A flammability map is also constructed from the resolved mixture fraction pdf and compared with its experimental counterpart. LES of forced ignition is then performed using flamelet fully detailed tabulated chemistry combined with presumed pdfs (PCM-FPI). Various scenarios of flame kernel development are analyzed and correlated with typical flow conditions observed in this burner. The correlations between velocities and mixture fraction values at the sparking time and the success or failure of ignition are then further discussed and analysed. The rate of flame development during successful or unsuccessful ignition events are analysed and compared against experimental observations. Finally, from asymptotic flame analysis, a novel approach has been proposed to include flame straining effects in the PCM-FPI method developped at CORIA-CNRS. The new model overcomes the problem associated with classical PCM-FPI closure to model kernel quenching due to intense local turbulence. Computations are done including the flame straining effects and the effect brought by the new model on kernel development is analysed in detail.
|
149 |
Personnalisation robuste de modèles 3D électromécaniques du cœur. Application à des bases de données cliniques hétérogènes et longitudinales / Robust personalisation of 3D electromechanical cardiac models. Application to heterogeneous and longitudinal clinical databasesMolléro, Roch 19 December 2017 (has links)
La modélisation cardiaque personnalisée consiste à créer des simulations 3D virtuelles de cas cliniques réels pour aider les cliniciens à prédire le comportement du cœur ou à mieux comprendre certaines pathologies. Dans cette thèse nous illustrons d'abord la nécessité d'une approche robuste d'estimation des paramètres, dans un cas ou l'incertitude dans l'orientation des fibres myocardiques entraîne une incertitude dans les paramètres estimés qui est très large par rapport à leur variabilité physiologique. Nous présentons ensuite une approche originale multi-échelle 0D/3D pour réduire le temps de calcul, basée sur un couplage multi-échelle entre les simulations du modèle 3D et d'une version "0D" réduite de ce modèle. Ensuite, nous dérivons un algorithme rapide de personnalisation multi-échelle pour le modèle 3D. Dans un deuxième temps, nous construisons plus de 140 simulations 3D personnalisées, dans le cadre de deux études impliquant l'analyse longitudinale de la fonction cardiaque : d'une part, l'analyse de l'évolution de cardiomyopathies à long terme, d'autre part la modélisation des changements cardiovasculaires pendant la digestion. Enfin, nous présentons un algorithme pour sélectionner automatiquement des directions observables dans l'espace des paramètres à partir d'un ensemble de mesures, et calculer des probabilités "a priori" cohérentes dans ces directions à partir des valeurs de paramètres dans la population. Cela permet en particulier de contraindre l'estimation de paramètres dans les cas où des mesures sont manquantes. Au final nous présentons des estimations cohérentes de paramètres dans une base de données de 811 cas avec le modèle 0D et 137 cas du modèle 3D. / Personalised cardiac modeling consists in creating virtual 3D simulations of real clinical cases to help clinicians predict the behaviour of the heart, or better understand some pathologies from the estimated values of biophysical parameters. In this work we first motivate the need for a consistent parameter estimation framework, from a case study were uncertainty in myocardial fibre orientation leads to an uncertainty in estimated parameters which is extremely large compared to their physiological variability. To build a consistent approach to parameter estimation, we then tackle the computational complexity of 3D models. We introduce an original multiscale 0D/3D approach for cardiac models, based on a multiscale coupling to approximate outputs of a 3D model with a reduced "0D" version of the same model. Then we derive from this coupling an efficient multifidelity optimisation algorithm for the 3D model. In a second step, we build more than 140 personalised 3D simulations, in the context of two studies involving the longitudinal analysis of the cardiac function: on one hand the analysis of long-term evolution of cardiomyopathies under therapy, on the other hand the modeling of short-term cardiovascular changes during digestion. Finally we present an algorithm to automatically detect and select observable directions in the parameter space from a set of measurements, and compute consistent population-based priors probabilities in these directions, which can be used to constrain parameter estimation for cases where measurements are missing. This enables consistent parameter estimations in a large databases of 811 cases with the 0D model, and 137 cases of the 3D model.
|
150 |
Validation préliminaire de l'échelle de psychopathie autorapportéeGagnon, Valérie 18 April 2018 (has links)
Depuis quelques années, des chercheurs s’intéressent aux manifestations de la psychopathie dans la population générale. La nature froide, manipulatrice et antisociale des personnes qui en souffrent (Paulhus & Williams, 2002) se manifeste par des comportements de violence conjugale (Costa & Babcock, 2008), d’infidélité (Egan & Angus, 2004) et de coercition sexuelle (Williams, Spidel, & Paulhus, 2005) associés à des formes graves de détresse conjugale (Han, Weed, & Butcher, 2003). Jusqu’à présent, le Levenson Primary and Secondary Psychopathy scales (LPSP; Levenson, Kiehl, & Fitzpatrick, 1995) constitue le seul instrument de mesure de la psychopathie infra clinique disponible en langue française. Or, un autre questionnaire autorapporté, le Self-Report Psychopathy Scale-III, (SRP-III; Paulhus, Hemphill, & Hare, sous presse) possède de bonnes propriétés psychométriques en langue anglaise et comble des lacunes du LPSP (Williams, Paulhus, & Hare, 2007). Sa validation en langue française est susceptible de fournir un outil de recherche et de dépistage fondé empiriquement. Les résultats obtenus démontrent que la validation préliminaire de la version française du SRP-III présente une structure factorielle similaire à celle de la Psychopathy Checklist Revised (PCL-R; Neumann, Hare et Newman, 2007), l’entrevue diagnostique de la psychopathie reconnue comme étalon dans le domaine. Toutefois, la composition des facteurs s’avère différente entre les versions française et anglaise du SRP-III
|
Page generated in 0.052 seconds