161 |
Numerical models of volcanic flows for an estimation and delimitation of volcanic hazards, the case of Reventador volcano (Ecuador) / Modèles numériques de coulées de lave pour une estimation et une délimitation du risque volcanique, le cas du volcan El Reventador (Equateur)Vallejo Vargas, Silvia Ximena 24 November 2017 (has links)
Les coulées de laves sont les produits volcaniques les plus représentatifs des éruptions effusives. Elles sont formées quand le magma est extrudé et se répand à la surface de la Terre. Quand la lave arrive en surface, elle perd de la chaleur et refroidit. Le refroidissement affecte directement les propriétés rhéologiques de la lave, jusqu’à arrêter son écoulement. Les paramètres rhéologiques qui contrôlent la dynamique des coulées de laves sont la viscosité et le seuil de plasticité, qui dépendent eux-mêmes de la composition chimique, de la cristallinité et de la teneur en bulles. Il existe de nombreux modèles d’estimation de la rhéologie, la plupart développés pour les coulées de lave basaltiques et quelque uns pour les coulées de lave andésitiques. Les coulées de laves peuvent grandement affecter les régions peuplées, les infrastructures et l’environnement. Un moyen de prévoir les futurs dégâts est de développer des modèles numériques pour prévoir la propagation des coulées de laves sur des topographies volcaniques réelles. Cette méthode difficile combine la topographie, la rhéologie, la perte de chaleur et la dynamique de l’écoulement pour simuler l’emplacement d’une coulée de lave précise. Le code numérique VolcFlow, qui est basé sur une approche moyennée verticale, est capable de reproduire les caractéristiques principales des dépôts comme la morphologie, la longueur et l’épaisseur. Dans cette étude sont proposés trois modèles implémentés dans VolcFlow et ayant pour but de simuler des coulées de laves. Le premier est isotherme, le deuxième inclut le refroidissement et les variations rhéologiques associées, et le troisième prend en considération la déformation de la croûte à la surface de la coulée et son effet sur l’emplacement de la coulée. Afin de vérifier la validité des différentes approches, les modèles sont testés sur quatre cas d’étude : deux coulées de lave de composition basaltique (expérience de basalte fondu de Syracuse lava Project et la coulée de lave d’août novembre 2015 du Piton de la Fournaise, France) et deux de compositions andésitique (la coulée de lave du 4-5 décembre 2015 du Tungurahua et trois coulées de lave du Reventador, Equateur). Les résultats des simulations montrent que le modèle isotherme peut reproduire les coulées même s’il ne prend pas en compte les variations de rhéologie et le refroidissement. Le modèle incluant la cristallisation, induite par le refroidissement de la lave au cours de son écoulement, et les variations rhéologiques associées donne de très bons résultats mais est très sensible aux paramètres d’entrée, en particulier à la viscosité, elle-même très dépendante de la composition chimique et de la température. Enfin, le modèle prenant en compte le refroidissement et les variations de rhéologie par une loi synthétique sigmoïde montre une bonne cohérence dans tous les cas simulés, sauf pour le Piton de la Fournaise. Le modèle visant à simuler la formation d’une croûte à la surface de la lave et sa percée par l’écoulement sous-jacent amène uniquement à l’épaississement de la croûte. Le mécanisme de percée n’est pas reproduit avec VolcFlow. / Lava flows are the most representative volcanic products of effusive eruptions and are formed whenthe magma is extruded and flows on the surface. When lava flows reach the surface they lose heat and cool.Cooling affects directly the rheology of the lava up to a point where it cannot flow anymore. Rheologicalparameters that control the dynamics of lava flows are the viscosity and the yield strength which in turndepends on the chemical composition, crystallinity and bubble content. There exist numerous models forthe rheology estimation, mostly developed for basaltic lava flows and few for andesitic ones.Lava flows can highly affect populated areas, infrastructures and environment. A way to forecastthe future damages is to developed numerical codes of the lava propagation on real volcanic topography.This challenging method combines the topography, the rheology, the heat loss, and flow dynamics tosimulate the emplacement of a particular lava flow. The numerical code VolcFlow which is based on thedepth-averaged approach is able to reproduce the main physical characteristics of the deposits likemorphology, length and thickness. Here 3 models are proposed for their implementation in VolcFlow withthe aim to simulate lava flows. One model is isothermal, the second includes cooling and the associatedrheological variations, and the third takes into account the crust formation and its effect on the flowemplacement. To check the validity of the different approaches, the models were tested with four studycases, two with basaltic compositions (molten basalt experiment of the Syracuse lava Project and the August-November, 2015 lava flow from Piton de la Fournaise, France) and two with andesitic compositions (theDecember 4th-5th lava flow from Tungurahua, Ecuador, and three lava flows from El Reventador,Ecuador). Results of the simulations shows that the isothermal model can reproduce the flows even if itdoes not consider the cooling and rheology variation. The model that includes rheological laws as functionof crystallization induced by cooling down flow can give very good results but is very sensitive to the inputdata, in particular to the fluid viscosity that is very dependent on chemical composition and temperature.Finally, the model that includes cooling and synthetic sigmoid rheological law shows good coherence for allthe cases except at Piton de la Fournaise. The model that aims to simulate the formation of a crust on thelava flow surface, lava flowing underneath and break-out mechanisms leads to the thickening of the crust.Hence, break-out mechanism is not reproduced with VolcFlow.
|
162 |
Evolution dynamique des amas stellaires jeunes / Dynamical evolution of young stellar clustersBecker, Christophe 18 December 2013 (has links)
Comprendre le processus de formation stellaire est un objectif majeur en astronomie. Sur ce sujet les observations ne donnent que très peu d'information, et les modèles numériques sont donc naturellement privilégiés. De tels modèles s'attachent à suivre la dynamique du gaz, sous l'effet de processus physique variés, ce qui nécessite un temps de calcul très important et ne permet pas de modéliser l'évolution au delà de 0.2 Myr environ. Or les résultats observationnels sont essentiellement issus du champ galactique proche, des amas évolués, voire des regions jeunes ou associations d'étoiles, dont l'âge peut varier de 1 Myr à quelques Gyr. Par conséquent, il est nécessaire pour comparer les résultats des modèles aux observations de comprendre ce qu'il se passe durant cet intervalle de temps. La formation stellaire tend à produire des étoiles en groupes, à partir de l'effondrement gravitationnel d'un nuage moléculaire turbulent. A mesure que les étoiles se forment, le gaz est éjecté et l'évolution est dominée par les interactions gravitationnelles. Suivre l'évolution sous l'effet de ces interactions est couramment utilisé afin de contraindre les modèles et de mieux comprendre l'origine des populations stellaires observées. Les étoiles se forment en sous-groupes ou structures hiérarchisées, qui peuvent ensuite fusionner pour donner des amas stellaires proche des amas ouverts, ou au contraire finir en associations distinctes. Dans ma thèse, je me suis intéressé à l'évolution dynamique de petits groupes d'étoiles, jusqu'alors peu étudiés par rapport aux groupes à 1000 ou 10^4 étoiles. J'ai simulé l'évolution de groupes à N < 100, dans le but d'en étudier la dynamique d'un point de vue statistique, grâce notamment au grand nombre de simulations effectuées, et afin d'identifier les signatures observationnelles propres à une situation initiale donnée. A partir d'un grand nombre de configurations initiales (avec N=20, 50, 100, un rayon typique de 0.025 pc à 1 pc) et 500 simulations par configurations, j'ai étudié l'évolution dynamique de groupes composés d'étoiles de même masse ou comprenant un spectre de masse, et sans population de binaire initiale. L'évolution de tels groupes s'est révélée similaire à celle de groupes plus grands, mais avec une phase d'effondrement plus rapide et surtout moins prononcée. Je décris le comportement moyen menant à une lente expansion de l'amas, ainsi qu'une voie d'évolution très différente, apparaissant dans 17% des cas étudiés, où l'amas est complètement dispersé suite à l'éjection d'une binaire centrale serrée. J'ai également recherché dans quelle mesure les données en densité et en vitesse 3D pouvaient permettre d'identifier l'état dynamique initial d'un groupe. L'utilisation de ces seules données suffisait dans certain cas à déterminer la densité initiale, mais elles devraient être complétées par des données concernant la population de binaire. Ce travail pourra être mis en application pour étudier l'origine dynamique d'association ou de groupes stellaires connus. Enfin, j'ai effectué un grand nombre de simulations numériques dans le but de reproduire l'état observé de l'amas eta Chamaeleontis par pure évolution dynamique à partir de conditions initiales standards. Cette association présente des caractéristiques d'amas évolué, telle que son spectre de masse pauvre en objets de faible masse et l'absence de binaires larges. Je montre que ces propriétés ne peuvent pas être reproduites uniquement par la dynamique, et sont donc les traces d'un processus de formation non standard. / Understanding the star formation process is a key issue in astronomy. Since direct observation provide only very limited information, this issue is investigated by models. Such models need to take into account complex physical processes while following the gas dynamics, so that simulations need a lot of time to run and do not follow the star formation process for longer than 0.2 Myr. The best known observational results concerns the field population, evolved open clusters or younger clusters or associations, which are between 1 Myr and a few Gyr old. Therefore in order to compare the results from models to known observations, we need to bridge the gap between the two. Star formation appears to produce groups of stars from the collapse of turbulent molecular clouds. As stars form, the gas is progressively ejected from the cluster, and the evolution is dominated by gravitational interactions. Following the dynamical evolution of a group of star using N-Body codes is a standard way used to constraint the models and understand the origin of the different populations. Star formation may produce sub-structure or small groups that merge to form bigger entities, or end up as loose association. In my thesis I focused on the dynamics of small groups, that have not been investigated as thoroughly as 1000 or 10^4 star groups. I performed N-Body simulations of small stellar groups, with N<100, in order to study their dynamics using a statistical approach, made possible by running a large number of simulations, and to find some observational signatures of given initial conditions. This approach enable to take full account of stochastic effects due to dynamical interactions. Using a large number of initial configurations (with N=20, 50, 100, a typical radius from 0.025 pc to 1 pc) and a sample of 500 simulations per configuration, I looked at equal mass groups as well as groups having a mass spectrum, without any binary initially. Such small groups show similar evolution to bigger groups, but with faster and less pronounced collapse phase. I described the average behaviour of slow expansion of the cluster, and an alternative evolution, occurring with 17% probability, that ended in the complete dissolution of the group due to ejection of a central binary. Searching for a way to identify the initial configuration from observational measure, I looked at the complementarity of density and 3D velocity and was able to show that it could be sufficient in some cases to determine the initial density. Further investigations are needed to take into account the information on the binary population and will be used to investigate the formation of known associations or young regions. Finally, I ran a large number of simulations, aiming at reproducing the observed state of the eta Chamaeleontis from standard initial conditions and pure dynamical evolution. This association properties are consistent with a dynamical evolved cluster, namely low-mass object poor and having only tight binaries. I showed that these properties cannot be reproduced with pure dynamical evolution from standard initial mass function and binary population, meaning that its particular features must have been pristine.
|
163 |
Recherche de la nature du neutrino avec le détecteur SuperNEMO : simulations optiques pour l'optimisation du calorimètre et performances attendues pour le 82Se / Search of the neutrinos's nature for the SuperNEMO detector : optical simulations for the calorimeter's optimizations and expected performances for 82SeHuber, Arnaud 29 September 2017 (has links)
Le démonstrateur de SuperNEMO est un détecteur de nouvelle génération pour la recherche de la décroissance double bêta sans émission de neutrinos. Comme son prédécesseur NEMO3, la technique expérimentale utilisée associe un trajectographe et un calorimètre afin de pouvoir identifier les électrons des décroissances double bêta tout en permettant la différenciation des différentes composantes du bruit de fond. Le démonstrateur est en cours d’installation au Laboratoire Souterrain de Modane et commencera à prendre des données à la fin de l’année 2017 afin d’atteindre une sensibilité supérieure à 1026 ans sur la demi-vie de la décroissance ββ0ν du 82Se dans la version finale du détecteur (100 kg d’isotopes pour une exposition totale de 5 ans).Ce travail de thèse a consisté à étudier la réponse en énergie et en temps des modules optiques du calorimètre (association d'un scintillateur plastique et d'un photomultiplicateur). Une simulation optique basée sur le logiciel GEANT4 a été développée afin de reproduire l'ensemble des phénomènes optiques ayant lieu au sein du scintillateur et du photomultiplicateur : scintillation, atténuation de Birks, émission Cerenkov, propagation et collection des photons. Ces travaux ont abouti à la mise au point de termes correctifs de hautes précisions sur l’énergie afin que le Monte Carlo de SuperNEMO soit au plus proche des données. Ces corrections ont alors été appliquées dans le cas du démonstrateur afin d’étudier l'impact sur la sensibilité au processus ββ0ν du 82Se. Ces simulations optiques ont également été étendues jusqu’à la modélisation de la forme temporelle des signaux du calorimètre. / The SuperNEMO demonstrator is a next generation experimental device, looking for neutrinoless double beta decay. Like its predecessor NEMO3, the experimental technique employed is based on a combination of a tracker and a calorimeter to identify the electrons from the double beta decay process while allowing the differentiation and identification of the different background components. The SuperNEMO’s demonstrator is currently being installed at the Modane Underground Laboratory and will begin to register data by the end of 2017. The aim is to reach a sensivity greater than 1026 years on the half-life of the 82Se ββ0ν process in the final version of the detector (100 kg of isotopes for a 5 years’ total exposure).This thesis contribution to the SuperNEMO, consisted in studying the energy and time response of the calorimeter optical modules (association of a plastic scintillator and a photomultiplier). To do so, an optical simulation based on the GEANT4 software was developed, which enabled to reproduce and simulate all the optical phenomena inside a scintillator and a photomultiplier: scintillation, Birks attenuation, Cerenkov emission, propagation and photon collection. The outcome and result of this thesis has been to develop high-precision corrective factors on the energy linked, so that the Monte-Carlo’s SuperNEMO is closest to the real data experimental records. These corrections were applied to the demonstrator simulation in order to study the impact on the ββ0ν sensitivity. These optical simulations have also been extended to the modeling of the temporal shape of the calorimeter signals.
|
164 |
Synthèse d’images réalistes en milieux fortement spéculairesBouchard, Guillaume 23 May 2014 (has links)
La synthèse d'images est un outil utilisé dans de nombreuses industries, comme celle de l'art, des jeux vidéos, du cinéma ou de l'ingénierie. Tout particulièrement, les simulations lumineuses de qualité au réalisme avancé sont un outil de prototypage puissant et l'étude d'un modèle virtuel permet de prendre des décisions pertinentes dans le processus de conception d'un produit. Cependant, la simulation est un processus coûteux pouvant nécessiter de nombreuses heures de calcul en fonction de la complexité des scènes. Dans cette thèse, nous nous intéressons à la complexité liée à la présence de matériaux spéculaires – les miroirs et les surfaces transparentes. Dans un contexte d'intégration numérique de Monte-Carlo, ces matériaux sont source de variance et ainsi augmentent les temps de calcul nécessaires à obtenir une image de qualité impliquant des phénomènes complexes comme les caustiques liées à la focalisation de la lumière, et les reflets. Après avoir mis en évidence les problématiques et contraintes caractéristiques des matériaux spéculaires, nous proposons un relâchement de ces contraintes au prix de l'introduction de biais – d'erreur – dans le calcul final. Nous proposons une heuristique permettant de pondérer une simulation non biaisée, mais peu effi- cace, et une simulation biaisée et plus efficace afin d'obtenir le meilleur compromis possible. Nos travaux étudient l'introduction de biais par régularisation, proposent des algorithmes efficaces de pondération et une méthode de visualisation interactive sur GPU. Pour finir, nos travaux ont permis l'amélioration du logiciel LuxRender, profitant ainsi à une grande communauté d'industriels et d'artistes / Image synthesis using computers is a tool used in many industries, from art, video games, cinema to engineering. Especially, efficient light simulations with advanced realism are an efficient tool for prototyping when the study of a virtual mock-up leads to more efficient industrial choices during the conception process. However, image rendering is a costly process which usually needs many hours of computation depending on the complexity of the involved scenes. In this thesis, we focus on the complexity inherited from the usage of specular materials, such as mirrors and transparent surfaces. In a Monte Carlo process, these materials are an important source of variance, or noise, and increase the rendering time needed to obtain an image representing complex phenomena such as caustics and reflexions. We first show the constraints involved by specular materials and propose to relax them, using regularization. We introduce a weighting heuristic allowing efficient trade-off between the biased regularization and the rendering efficiency. We study the evolution of the bias introduced by regularization, we propose efficient global illuminations algorithms and GPU implementations. Finally, our work was used inside LuxRender, a community developed rendering engine. This allows our work to be spread among and used by a large community of industrials and artists
|
165 |
Simulations level-set d’un amas de bulles cisaillées : écoulement et dynamique des tensioactifs / Level-set simulations of a cluster of sheared bubbles : flow and dynamics of surfactantsTitta, Andrea 19 September 2017 (has links)
Les mousses sont des assemblées de bulles de gaz dans une matrice liquide et sont utilisées dans plusieurs applications telles que par exemple l'isolation thermique et phonique, le forage pétrolier. Cependant, elles sont instables et tendent donc à disparaître. Les mécanismes qui gouvernent la stabilité d'une mousse et son effondrement restent encore incompris au niveau fondamental. Ce travail de thèse vise à étudier le couplage physico-chimique et rhéologique au sein d'une mousse par des simulations numériques, au niveau d'un amas de bulles cisaillées, afin de mieux comprendre l'origine de cette instabilité / Foams are gaz bubbles assemblies in a liquid matrix and are used in several applications such as for example the thermal and phonic insulating, ore drilling. However, they are instables and trend to disappear. the mechanisms that gouverns the foam stability and its collapse are still not well understood from a fundamental point of vue. The goal of this thesis work is to study the physico-chemical and rheological coupling in a foam, by numerical simulations of a cluster of sheared bubbles, in order to better understand the origin of this foam instability
|
166 |
Caractérisation multi-échelle du comportement thermo hybride des enveloppes hygroscopiques / Multiscale characterization of thermal hygric behavior of hygroscopic envelopesMedjelekh, Dalel 27 November 2015 (has links)
Face à la problématique énergétique du bâtiment et l’impact environnemental lié, il apparait que les enveloppes hygroscopiques sont une piste prometteuse en termes d’amélioration du confort thermique, de qualité de l’air intérieur, de consommation énergétique et de régulation de l'humidité intérieure. Aujourd'hui, on manque de valeurs de référence du comportement hygrothermique transitoire de ce type d’enveloppes. La physique des transferts hydriques dans les matériaux hygroscopiques, aptes à fixer l’humidité, est complexe et rend difficile la modélisation des transferts couplés de chaleur et de masse. Une approche expérimentale et numérique du comportement thermo hydrique des enveloppes hygroscopiques a donc été menée avec une caractérisation multi-échelle. Ainsi, le monitoring de quatre maisons habitées a été sujet de caractérisation au niveau de la première échelle. L’étude à l'échelle du matériau a permis de caractériser les propriétés liées aux transferts de chaleur et de masse. Le couplage thermo-hydrique a fait l'objet d'une étude spécifique à l'échelle de la paroi. Les implémentations différences finies et éléments finis ont abouti à une analyse fine des transferts à l'échelle de cellules-test avec un travail de réduction d'ordre nécessaire pour limiter les temps de calcul. L’accent est mis sur les effets de l’humidité apportés dans les ambiances intérieures afin de valider un outil numérique développé dans ce travail. Les enveloppes hygroscopiques choisies sont composées de matériaux biosourcés tels que le bois massif, le béton de bois, la terre et paille. Les enveloppes de travertin et de plaques de plâtre sont également étudiées. / In front of the building energy issues and environmental impact bound, it appears that the hygroscopic envelopes are a promising track in terms of improving of the thermal comfort, indoor air quality, energy consumption and indoor humidity regulation. Today, we lack reference values of the transient hygrothermal behavior of this envelope type. The physics of moisture transfer in hygroscopic materials (capable to fixing moisture) is complex and makes it difficult modeling of coupled heat and mass transfers. Experimental and numerical approaches of hygrothermal behavior in hygroscopic envelops was therefore conducted with a multi-scale visions. Thus, monitoring of four habited houses was the characterization focus at the first scale. The study on the material scale allowed to characterize the properties related to the heat and mass transfer. The hygrothermal coupling has been the subject of a specific study at a wall scale. Finite differences and finite elements implementations have resulted in a detailed analysis of transfers across cell-test with a reduction work of order required to limit the calculation time. Emphasis is placed on the effects of moisture brought in indoor environments in order to validate a digital tool developed in this work. The selected hygroscopic envelopes are composed of biosourced materials such as massive wood, wood concrete, earth and straw. Envelopes of travertine and plasterboard are also studied.
|
167 |
Chemodynamical simulations of evolution of galaxies : implementing dust model / Simulations chémodynamiques de l'évolution de galaxies implétant un modèle de poussièreGaudin, Nicolas 18 April 2013 (has links)
Les simulations numériques permettent d’étudier les galaxies. Outre la gravitation, l’inclusion de la formation stellaire, des apports d’énergie et de l’enrichissement métallique dans le milieu interstellaire par les étoiles, du refroidissement du gaz, etc. aboutit aux simulations chémodynamiques. Ces simulations permettent de traiter la dynamique, l’hydrodynamique, les effetsénergétiques, les abondances chimiques, etc. de manière cohérente. J’ai utilisé un code chémodynamique afin de modéliser l’évolution en masse de la poussière, phase solide du milieu interstellaire, aussi bien pour une galaxies massive que pour des galaxies naines. J’ai pu ainsi étudier les effets locaux de l’évolution de la poussière et dans des environnement à faiblemétallicité. Je montre que les simulations chémodynamiques sont indispensables car elles prennent naturellement en compte les effets locaux des mécanismes de production et de destruction, ainsi que le transport de la poussière. / Numerical simulations are a useful tool to understand galaxies. In addition to gravitation, other processes can be included for chemodynamical simulations: star formation, feedback of newly formed and evolving stars, metal enrichment, cooling of the interstellar medium, etc. These simulations describe in a self-consistent way the hydrodynamical and chemical evolution of galaxies. I use chemodynamical simulations to build up a model of evolution of the dust mass, solid component of the interstellar medium, in our Galaxy and in dwarf galaxies. I have performed simulations of a massive galaxy to understand localeffects on dust evolution while simulations of dwarf galaxies have been carried out to follow the dust mass in low metallicity environments. Chemodynamical simulations have shown that they are useful. Indeed, local effects and transport mechanisms are naturally included and turn out to be important for a model of dust mass production and destruction.
|
168 |
Processus de diffusion dans des membranes biologiques étudiés par simulation moléculaire et modèles analytiques / Diffusion processes in biological membranes studied by molecular dynamics simulations and analytical modelsStachura, Slawomir 08 July 2014 (has links)
De nombreuses études récentes, expérimentales et in-silico, montrent que la diffusion latérale des molécules dans des membranes biologiques présentent des anomalies, dans le sens que les déplacements carré moyen moléculaires évoluent de façon sublinéaire au lieu de linéaire avec le temps. Mathématiquement, ce type de diffusion peut être modélisé par des équations de diffusion généralisées, dans lesquelles une dérivée fractionnaire du temps s'ajoute à l'équation de diffusion normale correspondante. Le but de cette thèse est d'obtenir un aperçu plus physique des processus de diffusion dans des membranes biologiques. A cet effet, des simulations de dynamique moléculaire d'une bicouche lipidique POPC sont analysées en utilisant les concepts de la physique statistique des liquides. La queue aux temps longs de la fonction d'autocorrélation de vitesses des centres de masse, qui reflète le régime de diffusion des molécules en question, est mise en relation avec leur dynamique aux basses fréquences et avec la structure dynamique autour de chaque molécule. La dernière est caractérisée par la fonction de corrélation de paires dynamique de van Hove pour leurs centres de masse. Il est en particulier montré que la première couche de voisins d'une molécule lipidique qui diffuse ne se désintègre que très lentement avec t !, où 0 < ! < 1. Ce résultat est en accord avec l'observation faite par d'autres auteurs, que les molécules dans une bicouche lipidique ont la tendance de se déplacer d'une manière concertée. Afin d'évaluer l'impact du champ de force sur la nature des processus de diffusion observés, la bicouche lipidique POPC a été simulée avec le champ de force tout atome OPLS et avec le champ de force à gros grains MARTINI. Dans le second, quatre atomes lourds forment un seul grain. Dans les deux cas, on observe une sous-diffusion latérale, avec des exposants similaires, mais la diffusion des lipides obtenue avec le champ de force à gros grains est d'environ trois fois plus rapide et elle apparaît aussi plus rapide que dans des expériences correspondantes. Ce résultat est confirmé par la dynamique des molécules POPC à basse fréquence et par la structure dynamique de leur environnement local. / Various recent experimental and simulation studies show that the lateral diffusion of molecules in biological membranes exhibits anomalies, in the sense that the molecular mean square displacements increase sub-linearily instead of linearly with time. Mathematically, such diffusion processes can be modeled by generalized diffusion equations which involve an additional fractional time derivative compared to the corresponding normal counterpart. The aim of this thesis is to gain some more physical insight into the lateral diffusion processes in biological membranes. For this purpose, molecular dynamics simulations of a lipid POPC bilayer are analyzed by employing concepts from the statistical physics of liquids. The long-time tail of the center-of-mass velocity autocorrelation function, which reflects the diffusional regime of the molecules under consideration, is related to their low-frequency dynamics and to the dynamical structure around each molecule. The latter is studied in terms of the time dependent van Hove pair correlation function for their centers-of-mass. It is in particular demonstrated that the first shell of neighbors of a diffusing lipid molecule decays very slowly with t^(-beta), with 0 < beta < 1. This finding is in agreement with the observation that lipid molecules tend to form collective flow patterns, which has been recently reported by other authors. In order to evaluate the impact of the molecular dynamics force field on the nature of the observed diffusion process, the POPC bilayer was simulated with the OPLS all atom force field and with the coarse-grained MARTINI force field. In the latter, four heavy atoms are combined into one bead. In both cases lateral sub-diffusion with similar exponents is observed, but the diffusional motion obtained with the coarse grained force field is about three times faster and appears also to be faster than in experiments. This result is reflected in the low-fequency dynamics of the POPC molecules and in the dynamical structure of their local environment.
|
169 |
Molecular simulations of reverse osmosis membranes / Simulations moléculaires de membranes d'osmose inverseDing, Minxia 15 April 2015 (has links)
L'osmose inverse (OI) est actuellement le procédé le plus utilisé mondialement pour le dessalement des eaux saumâtres et de l’eau de mer. Cette thèse s'est intéressée à la simulation moléculaire de membranes d'OI afin d'améliorer la compréhension des propriétés structurales, dynamiques et de transport de l'eau et d'ions à l'intérieur de ces matériaux. La membrane d'OI étudiée dans ce travail est une membrane de polyamide aromatique, matériau le plus utilisé actuellement en OI. Dans la première partie de ce travail, une méthodologie a été développée pour construire un modèle atomique en trois dimensions d'une membrane polyamide fortement réticulé. Des simulations de dynamique moléculaire à l’équilibre (EMD) et hors-équilibre (NEMD) ont été réalisées pour étudier le comportement de l'eau et des ions Na+ et Cl- à travers la membrane. Les simulations EMD ont montré que les caractéristiques structurales de la membrane modèle étaient en bon accord avec celles d'une membrane typique d'OI. Les propriétés dynamiques et diélectriques de l'eau confinée dans la membrane ont également été étudiées et il a été montré que celles-ci étaient fortement modifiées par rapport à une phase volumique. Deux types de techniques NEMD ont été utilisés pour étudier le transport baromembranaire à travers la membrane modèle. La perméabilité à l'eau pure a été trouvée en très bon accord avec les données expérimentales rapportées dans la littérature et les deux méthodes NEMD ont révélé une très forte rétention saline, confirmant ainsi la pertinence du modèle de membrane d'OI développé dans ce travail. / Reverse osmosis (RO) is currently the leading process used worldwide for both brackish and seawater desalination. This thesis focuses on the molecular simulation of RO membranes in order to improve the understanding of structure, dynamics and transport of water and ions inside these materials. The RO membrane studied in this work is a typical polyamide RO membrane. In the first step of this work, a methodology for building a fully atomic and three-dimensional model of a highly cross-linked polyamide membrane was developed. Both equilibrium molecular dynamics (EMD) and non-equilibrium molecular dynamics (NEMD) simulations were further performed to investigate the behavior of water and ions (Na+ and Cl-) through the membrane. EMD simulations showed that the structural characteristics of the model polyamide membrane were in good agreement with those of a typical RO membrane. The dynamics and dielectric properties of water confined in the RO membrane were also studied and have shown to be dramatically modified with respect to the bulk phase. Two types of NEMD techniques were employed to investigate pressure-driven transport through the model membrane. Pure water permeability was found to be in very good agreement with experimental data reported in the literature for similar membrane materials and both NEMD methods highlighted very high salt rejection properties, thus confirming the relevance of the model membrane developed in this work.
|
170 |
Dynamic Load Balancing Schemes for Large-scale HLA-based SimulationsDe Grande, Robson E. January 2012 (has links)
Dynamic balancing of computation and communication load is vital for the execution stability and performance of distributed, parallel simulations deployed on shared, unreliable resources of large-scale environments. High Level Architecture (HLA) based simulations can experience a decrease in performance due to imbalances that are produced initially and/or during run-time. These imbalances are generated by the dynamic load changes of distributed simulations or by unknown, non-managed background processes resulting from the non-dedication of shared resources. Due to the dynamic execution characteristics of elements that compose distributed simulation applications, the computational load and interaction dependencies of each simulation entity change during run-time. These dynamic changes lead to an irregular load and communication distribution, which increases overhead of resources and execution delays. A static partitioning of load is limited to deterministic applications and is incapable of predicting the dynamic changes caused by distributed applications or by external background processes. Due to the relevance in dynamically balancing load for distributed simulations, many balancing approaches have been proposed in order to offer a sub-optimal balancing solution, but they are limited to certain simulation aspects, specific to determined applications, or unaware of HLA-based simulation characteristics. Therefore, schemes for balancing the communication and computational load during the execution of distributed simulations are devised, adopting a hierarchical architecture. First, in order to enable the development of such balancing schemes, a migration technique is also employed to perform reliable and low-latency simulation load transfers. Then, a centralized balancing scheme is designed; this scheme employs local and cluster monitoring mechanisms in order to observe the distributed load changes and identify imbalances, and it uses load reallocation policies to determine a distribution of load and minimize imbalances. As a measure to overcome the drawbacks of this scheme, such as bottlenecks, overheads, global synchronization, and single point of failure, a distributed redistribution algorithm is designed. Extensions of the distributed balancing scheme are also developed to improve the detection of and the reaction to load imbalances. These extensions introduce communication delay detection, migration latency awareness, self-adaptation, and load oscillation prediction in the load redistribution algorithm. Such developed balancing systems successfully improved the use of shared resources and increased distributed simulations' performance.
|
Page generated in 0.1009 seconds