Spelling suggestions: "subject:"mathématiques appliquées"" "subject:"mathématiques appliquéesà""
51 |
Robust and efficient meshfree solid thermo-mechanics simulation of friction stir weldingFraser, Kirk 04 1900 (has links) (PDF)
Friction stir welding, FSW, is a solid-state joining method that is ideally suited for welding aluminum alloys. Welding of the aluminum is accomplished by way of a hardened steel tool that rotates and is pushed with great force into the work pieces. Friction between the tool and the aluminum causes heat to be generated, which softens the aluminum, rendering it easy to deform plastically. In recent years, the FSW process has steadily gained interest in various fabrication industries. However, wide spread acceptance has not yet been attained. Some of the main reasons for this are due to the complexity of the process and the capital cost to procure the required welding equipment and infrastructure. To date, little attention has been paid towards finding optimal process parameters that will increase the economic viability of the FSW process, thus offsetting the high initial investment most. In this research project, a robust and efficient numerical simulation code called SPHriction-3D is developed that can be used to find optimal FSW process parameters. The numerical method is meshfree, allowing for all of the phases of the FSW process to be simulated with a phenomenological approach. The dissertation starts with a focus on the current state of art. Next an in-depth development of the proposed meshfree formulation is presented. Then, the emphasis turns towards the presentation of various test cases along with experimental validation (the focus is on temperature, defects, and tool forces). The remainder of the thesis is dedicated to the development of a robust approach to find the optimal weld quality, and the associated tool rpm and advancing speed. The presented results are of engineering precision and are obtained with low calculation times (hours as opposed to days or weeks). This is possible, since the meshfree code is developed to run in parallel entirely on the GPU. The overall outcome is a cutting edge simulation approach for the entire FSW process.
Le soudage par friction malaxage, SFM, est une méthode idéale pour relier ensemble des pièces en aluminium. Lors du procédé, un outil en acier très dur tourne à haute vitesse et est presser dans les plaques avec beaucoup de force. L’outil frotte sur les plaques et génère la chaleur, ce qui ramollie l’aluminium, ceci le rendant plus facile à déformé mécaniquement. Récemment, le SFM a connu une croissance de reconnaissance important, par contre, l’industrie ne l’as pas encore adopté unilatéralement. Il existe encore beaucoup de terrain à défricher avant de bien comprendre comment les paramètres du procédé font effet sur la qualité de la soudure. Dans ce travail, on présente une approche de simulation numérique sans maillage pour le SFM. Le code développé est capable de prendre en considération des grandes déformations plastiques, le ramollissement de l’aluminium avec la
température, et la condition de frottement complexe. Cette méthode permet de simulé tous les phases du procédé SFM dans une seule modèle. La thèse commence avec un mis en contexte de l’état actuel de la simulation numérique du SFM. Une fois la méthodologie de simulation sans maillage présenté, la thèse concentre sur différents cas de vérification et validation. Finalement, un travail d’optimisation des paramètres du procédé est réalisé avec le code numérique. La méthode de simulation présentée s’agit d’une approche efficace et robuste, ce qui le rend un outil de conception valable pour les ingénieurs qui
travaille dans le domaine de SFM.
|
52 |
Simulation et contrôle de phénomènes physiques / Simulation and control of physical phenomenaManteaux, Pierre-Luc 03 October 2016 (has links)
En informatique graphique les phénomènes physiques simulés pour la création d'animations, de jeux vidéos ou la conception d'objets sont de plus en plus complexes:Tout d'abord en terme de coût de calcul, l'échelle des simulations étant de plus en plus importante;Ensuite en terme de complexité phénomènes eux-mêmes qui requièrent des modèles permettant de changer d'état et de forme.Cette complexité grandissante introduit de nouveaux défis quand il s'agit d'offrir à un utilisateur un contrôle sur ces simulations à grande échelle.Dans de nombreux cas, ce contrôle est réduit à un cycle d'essais et d'erreurs pour déterminer les paramètres de la simulation qui satisferont au mieux les objectifs de l'utilisateur.Dans cette thèse, nous proposons trois techniques pour répondre en partie à ces défis.Tout d'abord nous introduisons un nouveau modèle adaptatif permettant de réduire le temps de calcul dans des simulations Lagrangiennes de particules.À l'inverse des méthodes de ré-échantillonnage, le nombre de degrés de liberté reste constant au cours de la simulation.La méthode est ainsi plus simple à intégrer dans un simulateur existant et la charge mémoire est constante ce qui peut être un avantage dans un contexte interactif.Ensuite, nous proposons un algorithme permettant de réaliser la découpe détaillée d'objets fins et déformables.Notre méthode s'appuie sur une mise à jour dynamique des fonctions de forme associées à chaque degré de liberté, permettant ainsi de conserver un nombre de degré de liberté très faible tout en réalisant des changements topologiques détaillés.Enfin, nous nous intéressons au contrôle d'animations de fluide en s'inspirant des méthodes d'édition intéractive de formes en modélisation 3D.Dans ce système, l'utilisateur travaille directement avec le résultat d'une simulation, c'est à dire une suite de maillages représentant la surface du fluide.Des outils de sélection et d'édition spatio-temporelle inspirés des logiciels de sculpture de formes statiques lui sont proposés. / In computer graphics, the physical phenomena simulated for the creation of animations, video games or the design of objects are found to be more and more complex:First, in terms of the computational cost, the scale of the simulations is more and more important;Then, in terms of the complexity of the phenomena themselves, which require the models to be able to change their state and shape.This growing complexity introduces new challenges in order to offer control on these large scale simulations to the user.In many cases, this control is reduced to a trial-and-error process in order to determine the parameters of the simulation which best meet the objectives of the user.In this thesis, we propose three techniques to tackle these challenges.First, we introduce a new adaptive model which allows to reduce the computational cost in Lagrangian simulations of particles.In contrast with re-sampling strategies, the number of degrees of freedom remains constant throughout the simulation.Therefore, the method is simpler to integrate into an existing simulator and the memory consumption remains constant, which can be an advantage in an interactive context.Then, we propose an algorithm which allows the detailed cutting of thin deformable objects.Our method relies on a dynamic update of the shape functions associated to the degrees of freedom, which therefore allows to keep a very low number of degrees of freedom while performing detailed topological changes.Finally, we focus on the control of the fluid animations and take inspiration from interactive methods of shape editing in the field of 3D modeling.We introduce a system where the user directly edits the result of the simulation, i.e. a sequence of meshes representing the surface of the fluid.We propose selection and editing spatio-temporal tools inspired from static shapes sculpting software.
|
53 |
Simulation du mouvement brownien et des diffusionsFaure, Olivier 21 February 1992 (has links) (PDF)
L'objet de cette thèse est l'étude de la simulation numérique de certains processus stochastiques, les diffusions, dont le mouvement brownien est un exemple typique. Nous commençons par quelques rappels sur le mouvement brownien au chapitre 1. Il s'agit d'une présentation élémentaire, qui s'appuie sur la simulation numérique, et permet de rappeler quelques propriétés classiques. Puis nous présentons au chapitre 2 une simulation alternative du mouvement brownien, en un sens plus naturelle, qui s'attache davantage à son comportement spatial que les méthodes traditionnelles. Le mouvement brownien est simulé à des instants aléatoires qui gouvernent son comportement; ce sont les temps de sortie de certaines "boîtes noires". En choisissant la taille et la position de ces boîtes noires dans l'espace, et sous réserve qu'elles se chevauchent, on peut ainsi simuler très précisément une trajectoire brownienne. La suite de la thèse est consacrée à l'analyse numérique des équations différentielles stochastiques (E.D.S) et à la simulation informatique de leur solution. Nous commençons au chapitre 3 par une introduction qui rappelle ce que sont les E.D.S, cite quelques unes de leurs propriétés et applications classiques dans les sciences de l'ingénieur. Au chapitre 4 nous présentons un résultat de convergence trajectorielle du schéma d'Euler en en précisant l'ordre de convergence. Un résultat similaire est présenté pour le schéma de Milshtein au chapitre 5. Comme on peut s'y attendre, ce schéma est plus performant que le schéma d'Euler, quand la condition classique de commutativité est vérifiée. Ceci améliore partiellement un résultat de Denis Talay. On étudie ensuite au chapitre 6 une classe de schémas de discrétisation à pas variables permettant une approximation spatiale des diffusions dans l'esprit du chapitre 2. Nous commençons par un résultat assez général de convergence d'un schéma d'Euler défini le long d'une subdivision aléatoire. Dans le cas où cette subdivision est gouvernée par les temps de passage successifs du mouvement brownien, nous retrouvons et étendons partiellement des travaux de Nigel Newton. Dans le cas où cette subdivision de façon à ce que les accroissements du schéma de discrétisation soient constants, nous étudions un schéma de discrétisation originalement présenté par Bichteler. Nous précisons sa vitesse de convergence et donnons une méthode de simulation numérique. Le chapitre 7 est un panorama des travaux existants sur la discrétisation des équations différentielles stochastiques. Sans prétendre être exhaustif, nous présentons au contraire une relecture des travaux existants dans l'optique de la simulation numérique. Enfin le chapitre 8 s'attache à quelques questions ou problèmes non résolus qui représentent un intérêt évident pour les applications. Nous suggérons pour chacune de ces questions quelques commencements de réponse.
|
54 |
Analytical and numerical vortex methods to model separated flows / .Gallizio, Federico 24 April 2009 (has links)
Le problème de la mécanique des fluides, concernant les écoulements décollés derrière des obstacles immobiles ou en mouvement, est traité par l’étude de deux sujets: a) recherches sur l’existence de solutions stationnaires des equations d’Euler et Navier-Stokes pour grands nombres de Reynolds, au-delà des corps caractérisés par pointes ou singularités géométriques; b) analyse du sillage non stationnaire derrière une turbine à axe vertical (VAT). L’étude de ces deux différents régimes d’écoulements, concernant le phénomène du détachement derrière corps émoussés ou profils alaires à haut angle d’incidence, a permis la mise au point de plusieurs techniques analytiques et numériques basées sur le champ de vorticité. / The problem of the separated flows dynamics past obstacles at rest or moving bodies is addressed by means of the study of two topics a) investigation on the existence of some steady solutions of the Euler equations and of the Navier-Stokes equations at large Reynolds number, past bodies characterized by a cusp; b) analysis of the unsteady wake behind a Vertical Axis Turbine (VAT). The survey of such different flow regimes related to the separation phenomenon past bluff bodies or bodies at incidence allowed to devise several numerical and analytical techniques based on the evaluation of the vorticity field.
|
55 |
Modélisation multi-échelle de systèmes nanophotoniques et plasmoniques / Multi-scale modelling of nanophotonic and plasmonic systemsFall, Mandiaye 06 December 2013 (has links)
Les structures nanophotoniques sont généralement simulées par des méthodes de volumes, comme la méthode des différences finies dans le domaine temporel (FDTD), ou la méthode des éléments finis (FEM). Toutefois, pour les grandes structures, ou des structures plasmoniques métalliques qui nécessitent, la mémoire et le temps de calcul requis peuvent augmenter de façon spectaculaire.Les méthodes de surface, comme la méthode des éléments de frontière (BEM) ont été développées afin de réduire le nombre d'éléments de maillage. Ces méthodes consistent à exprimer le champ formé dans tout l'espace en fonction des courants électrique et magnétique à la surface de l’objet. Combinées avec la méthode multipôle rapide (FMM) qui permet une accélération du calcul de l'interaction entre les éléments lointain du maillage, de grands systèmes peuvent ainsi être manipulés.Nous avons développé, pour la première fois à notre connaissance, une FMM sur un nouveau formalisme BEM, basé sur les potentiels scalaire et vectoriel au lieu de courants électriques et magnétiques. Cette méthode a été montrée pour permettre une simulation précise des systèmes plasmoniques métalliques, tout en offrant une réduction significative des besoins de calcul. Des systèmes nanophotoniques complexes ont été simulés, comme une lentille plasmonique composé d'un ensemble de nanotubes d'or. / Nanophotonic structures are generally simulated by volume methods, as Finite-difference time-domain (FDTD) method, or Finite element method (FEM). However, for large structures, or metallic plasmonic structures, the memory and time computation required can increase dramatically, and make proper simulation infeasible.Surface methods, like the boundary element method (BEM) have been developed to reduce the number of mesh elements. These methods consist in expressing the electromagnetic filed in whole space as a function of electric and magnetic currents at the surface of scatterers. Combined with the fast multipole method (FMM) that enables a huge acceleration of the calculation of interaction between far mesh elements, very large systems can thus be handled.What we performed is the development of an FMM on a new BEM formalism, based on scalar and vector potentials instead of electric and magnetic currents, for the first time to our knowledge. This method was shown to enable accurate simulation of metallic plasmonic systems, while providing a significant reduction of computation requirements, compared to BEM-alone. Several thousands of unknowns could be handled on a standard computer. More complex nanophotonic systems have been simulated, such as a plasmonic lens consisting of a collection of gold nanorods.
|
56 |
Modélisation eulérienne de l'interaction d'un brouillard avec un choc en régime supersonique / Euler-Euler modelling of the interaction between a supersonic dilute flow and a detached shockMarois, Gentien 20 December 2018 (has links)
Les travaux présentés dans cette thèse portent sur l’interaction d'un brouillard avec un choc en régime supersonique. L’approche eulérienne a été utilisée car elle est particulièrement adaptée aux machines fortement parallèles. Un module nommé SDFS (Supersonic Dilute Flow Solver), permettant de modéliser le comportement du brouillard, a été créé et validé au sein d’un code d’aérodynamique du CEA. Les travaux ont porté sur trois aspects de la modélisation numérique. Premièrement, l’étude et la création de nouveaux modèles. Deuxièmement, l’implémentation numérique et la validation sur des cas académiques de référence. Enfin, la confrontation entre les résultats numériques et des données expérimentales issues de la littérature. / In this thesis we focus on the interaction between a supersonic dilute flow and a detached shock. The Eulerian approach has been chosen because it is particularly adapted to parallel computing. A program named SDFS (Supersonic Dilute Flow Solver), was created and validated in a CEA aerodynamic code. Three aspects of the computational simulation have been studied. First the study and creation of new models. Then the numerical implementation and the validation through academic reference cases. Finally, the comparison between numerical results and experimental data.
|
57 |
Contributions à l'amélioration de l'extensibilité de simulations parallèles de plasmas turbulents / Towards highly scalable parallel simulations for turbulent plasma physicsRozar, Fabien 05 November 2015 (has links)
Les besoins en énergie dans le monde sont croissants alors que les ressources nécessaires pour la production d'énergie fossile s'épuisent d'année en année. Un des moyens alternatifs pour produire de l'énergie est la fusion nucléaire par confinement magnétique. La maîtrise de cette réaction est un défi et constitue un domaine actif de recherche. Pour améliorer notre connaissance des phénomènes qui interviennent lors de la réaction de fusion, deux approches sont mises en oeuvre : l'expérience et la simulation. Les expérience réalisées grâce aux Tokamaks permettent de prendre des mesures. Ceci nécessite l'utilisation des technologiques les plus avancées. Actuellement, ces mesures ne permettent pas d'accéder à toutes échelles de temps et d'espace des phénomènes physiques. La simulation numérique permet d'explorer ces échelles encore inaccessibles par l'expérience. Les ressources matérielles qui permettent d'effectuer des simulations réalistes sont conséquentes. L'usage du calcul haute performance (High Performance Computing HPC) est nécessaire pour avoir accès à ces simulations. Ceci se traduit par l'exploitation de grandes machines de calcul aussi appelées supercalculateurs. Les travaux réalisés dans cette thèse portent sur l'optimisation de l'application Gysela qui est un code de simulation de turbulence de plasma. L'optimisation d'un code de calcul scientifique vise classiquement l'un des trois points suivants : (i ) la simulation de plus grand domaine de calcul, (ii ) la réduction du temps de calcul et (iii ) l'amélioration de la précision des calculs. La première partie de ce manuscrit présente les contributions concernant la simulation de plus grand domaine. Comme beaucoup de codes de simulation, l'amélioration de la précision de la simulation est souvent synonyme de raffinement du maillage. Plus un maillage est fin, plus la consommation mémoire est grande. De plus, durant ces dernières années, les supercalculateurs ont eu tendance à disposer de moins en moins de mémoire par coeur de calcul. Pour ces raisons, nous avons développé une bibliothèque, la libMTM (Modeling and Tracing Memory), dédiée à l'étude précise de la consommation mémoire d'applications parallèles. Les outils de la libMTM ont permis de réduire la consommation mémoire de Gysela et d'étudier sa scalabilité. À l'heure actuelle, nous ne connaissons pas d'autre outil qui propose de fonctionnalités équivalentes permettant une étude précise de la scalabilité mémoire. La deuxième partie de ce manuscrit présente les travaux concernant l'optimisation du temps d'exécution et l'amélioration de la précision de l'opérateur de gyromoyenne. Cet opérateur est fondamental dans le modèle gyromagnétique qui est utilisé par l'application Gysela. L'amélioration de la précision vient d'un changement de la méthode de calcul : un schéma basé sur une interpolation de type Hermite vient remplacer l'approximation de Padé. Il s'avère que cette nouvelle version de l'opérateur est plus précise mais aussi plus coûteuse en terme de temps de calcul que l'opérateur existant. Afin que les temps de simulation restent raisonnables, différentes optimisations ont été réalisées sur la nouvelle méthode de calcul pour la rendre très compétitive. Nous avons aussi développé une version parallélisée en MPI du nouvel opérateur de gyromoyenne. La bonne scalabilité de cet opérateur de gyromoyenne permettra, à terme, de réduire des coûts en communication qui sont pénalisants dans une application parallèle comme Gysela. / Energy needs around the world still increase despite the resources needed to produce fossil energy drain off year after year. An alternative way to produce energy is by nuclear fusion through magnetic confinement. Mastering this reaction is a challenge and represents an active field of the current research. In order to improve our understanding of the phenomena which occur during a fusion reaction, experiment and simulation are both put to use. The performed experiments, thanks to Tokamaks, allow some experimental reading. The process of experimental measurements is of great complexity and requires the use of the most advanced available technologies. Currently, these measurements do not give access to all scales of time and space of physical phenomenon. Numerical simulation permits the exploration of these scales which are still unreachable through experiment. An extreme computing power is mandatory to perform realistic simulations. The use of High Performance Computing (HPC) is necessary to access simulation of realistic cases. This requirement means the use of large computers, also known as supercomputers. The works realized through this thesis focuses on the optimization of the Gysela code which simulates a plasma turbulence. Optimization of a scientific application concerns mainly one of the three following points : (i ) the simulation of larger meshes, (ii ) the reduction of computing time and (iii ) the enhancement of the computation accuracy. The first part of this manuscript presents the contributions relative to simulation of larger mesh. Alike many simulation codes, getting more realistic simulations is often analogous to refine the meshes. The finer the mesh the larger the memory consumption. Moreover, during these last few years, the supercomputers had trend to provide less and less memory per computer core. For these reasons, we have developed a library, the libMTM (Modeling and Tracing Memory), dedicated to study precisely the memory consumption of parallel softwares. The libMTM tools allowed us to reduce the memory consumption of Gysela and to study its scalability. As far as we know, there is no other tool which provides equivalent features which allow the memoryscalability study. The second part of the manuscript presents the works relative to the optimization of the computation time and the improvement of accuracy of the gyroaverage operator. This operator represents a corner stone of the gyrokinetic model which is used by the Gysela application. The improvement of accuracy emanates from a change in the computing method : a scheme based on a 2D Hermite interpolation substitutes the Padé approximation. Although the new version of the gyroaverage operator is more accurate, it is also more expensive in computation time than the former one. In order to keep the simulation in reasonable time, diferent optimizations have been performed on the new computing method to get it competitive. Finally, we have developed a MPI parallelized version of the new gyroaverage operator. The good scalability of this new gyroaverage computer will allow, eventually, a reduction of MPI communication costs which are penalizing in Gysela.
|
58 |
Navigation d'une aiguille médicale déformableRobert, Adeline 31 October 2013 (has links) (PDF)
Les environnements actuels de navigation de gestes interventionnels avec aiguille font l'hypothèse de l'indéformabilité de celle-ci. Hypothèse non vérifiée cliniquement avec comme conséquence immédiate une perte de précision du geste réalisé et à plus long terme de potentielles conséquences morbides. En pratique, cette aiguille peut être amenée à se déformer du fait des interactions avec les tissus. Il est donc nécessaire d'incorporer dans les systèmes de navigation des données sur la déformée de l'aiguille à l'aide, par exemple, de jauges de déformation. Ces dernières permettent d'accéder en temps réel à des informations locales de déformation, a partir desquelles il sera possible de reconstruire la déformée de l'aiguille. L'objectif de ce travail consiste donc à l'élaboration d'une nouvelle génération de système de navigation permettant de localiser en 3D et en temps réel, la déformée d'une aiguille instrumentée.
|
59 |
Modélisation et analyse de modèles de polymères aléatoirement réticulé et application à l’organisation et à la dynamique de la chromatine / Modeling and analysis of randomly cross-linked polymers and application to chromatin organization and dynamicsShukron, Ofir 16 November 2017 (has links)
Dans cette thèse nous étudions la relation entre la conformation et la dynamique de la chromatine en nous basant sur une classe de modèles de polymères aléatoirement réticulé (AR). Les modèles AR permettent de prendre en compte la variabilité de la conformation de la chromatine sur l’ensemble d’une population de cellules. Nous utilisons les outils tels que les statistiques, les processus stochastiques, les simulations numériques ainsi que la physique des polymères afin de déduire certaines propriétés des polymères AR a l’équilibre ainsi que pour des cas transitoires. Nous utilisons par la suite ces propriétés afin d’élucider l’organisation dynamique de la chromatine pour diverses échelles et conditions biologiques. Dans la première partie de ce travail, nous développons une méthode générale pour construire les polymères AR directement à partir des données expérimentales, c’est-à-dire des données de capture chromosomiques (CC). Nous montrons que des connections longue portées persistantes entre des domaines topologiquement associés (DTA) affectent le temps de rencontre transitoire entre les DTA dans le processus d’inactivation du chromosome X. Nous montrons de plus que la variabilité des exposants anormaux – mesurée en trajectoires de particules individuelles (TPI) – est une conséquence directe de l’hétérogénéité dans la position des réticulations. Dans la deuxième partie, nous utilisons les polymères AR afin d’étudier la réorganisation locale du génome au point de cassure des deux branches d’ADN (CDB). Le nombre de connecteurs dans le modèle de polymère AR est calibré à partir de TPI, mesurées avant et après la CDB. Nous avons trouvé que la perte modérée de connecteur autour des sites de la CDB affecte de façon significative le premier temps de rencontre des deux extrémités cassées lors du processus de réparation d’une CBD. Nous montrons comment un micro-environnement génomique réticulé peut confiner les extrémités d’une cassure, empêchant ainsi les deux brins de dériver l’un de l’autre. Dans la troisième partie nous déduisons une expression analytique des propriétés transitoires et a l’équilibre du modèle de polymère AR, représentant une unique région DTA. Les expressions ainsi obtenue sont ensuite utilisées afin d’extraire le nombre moyen de connexions dans les DTA provenant des données de CC, et ce à l’aide d’une simple procédure d’ajustement de courbe. Nous dérivons par la suite la formule pour le temps moyen de première rencontre (TMPR) entre deux monomères d’un polymère AR. Le TMPR est un temps clé pour des processus tels que la régulation de gènes et la réparation de dommages sur l’ADN. Dans la dernière partie, nous généralisons le modèle AR analytique afin de prendre en compte plusieurs DTA de tailles différentes ainsi que les connectivités intra-DTA et extra-DTA. Nous étudions la dynamique de réorganisation de DTA lors des stages successifs de différentiations cellulaires à partir de données de CC. Nous trouvons un effet non-négligeable de la connectivité de l’inter-DTA sur les dynamiques de la chromatique. Par la suite nous trouvons une compactification et une décompactification synchrone des DTA à travers les différents stages. / In this dissertation we study the relationship between chromatin conformation and dynamics using a class of randomly cross-linked (RCL) polymer models. The RCL models account for the variability in chromatin conformation over cell population. We use tools from statistics, stochastic process, numerical simulations and polymer physics, to derive the steady-state and transient properties of the RCL polymer, and use them to elucidate the dynamic reorganization of the chromatin for various scales and biological conditions. In the first part of this dissertation work, we develop a general method to construct the RCL polymer directly from chromosomal capture (CC) data. We show that persistent long-range connection between topologically associating domain (TAD) affect transient encounter times within TADs, in the process of X chromosome inactivation. We further show that the variability in anomalous exponents, measured in single particle trajectories (SPT), is a direct consequence of the heterogeneity of cross-link positions. In the second part, we use the RCL polymer to study local genome reorganization around double strand DNA breaks (DSBs). We calibrate the number of connectors in the RCL model using SPT data, acquired before and after DSB. We find that the conservative loss of connectors around DSB sites significantly affects first encounter times of the broken ends in the process of DSB repair. We show how a cross-linked genomic micro-environment can confine the two broken ends of a DSB from drifting apart. In the third part, we derive analytical expressions for the steady-state and transient properties of the RCL model, representing a single TAD region. The derived expressions are then used to extract the mean number of cross-links in TADs of the CC data, by as simple curve fitting procedure. We further derive formula for the mean first encounter time (MFET) between any two monomers of the RCL polymer. The MFET is a key time in processes such as gene regulation. In the last part, we generalize the analytical RCL model, to account for multiple TADs with variable sizes, intra, and inter-TAD connectivity. We study the dynamic reorganization of TADs, throughout successive stages of cell differentiation, from the CC data. We find non-negligible effect of inter-TAD connectivity on the dynamics of the chromatin. We further find a synchronous compaction and decompaction of TADs during differentiation.
|
60 |
Contributions aux méthodes arithmétiques pour la simulation accéléréeXiao, Yi-Jun 27 September 1990 (has links) (PDF)
Cette thèse porte sur les irrégularités de distribution de suites à une ou plusieurs dimensions et sur leurs applications a l'intégration numérique. Elle comprend trois parties. La première partie est consacrée aux suites unidimensionnelles : estimations de la diaphonie de la suite de Van der Corput à partir de l'étude des sommes exponentielles et étude des suites (n). La deuxième partie porte sur quelques suites classiques en dimension plus grande que une (suites de Fame, suites de Halton). La troisième partie, consacrée aux applications à l'intégration contient de nombreux résultats numériques, permettant de comparer l'efficacité de suites.
|
Page generated in 0.105 seconds