• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 258
  • 115
  • 23
  • 5
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 399
  • 204
  • 78
  • 50
  • 45
  • 35
  • 32
  • 29
  • 28
  • 28
  • 25
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Etudes de la stabilité de nano-objets complexes chargés : agrégats et systèmes moléculaires d'intérêt biologique

Manil, Bruno 23 November 2007 (has links) (PDF)
Durant ces 6 dernières années, ma thématique principale de recherche s'est d'abord focalisée sur l'étude de la stabilité et des processus de fragmentation de fullerènes et des agrégats de fullerènes, puis dans celle de la stabilité et de la réactivité de molécules ou de systèmes d'intérêt biologique.<br />Un des principaux résultats de ces études concerne les agrégats moléculaires de fullerènes, qui sont en principe des agrégats de type van der Waals, donc faiblement liés et surtout électriquement isolants. Nous avons montré que les espèces stables multiplement chargées, formées suite à des collisions avec des ions lents multichargés, qui ne subissent par ailleurs aucune modification structurelle profonde suite à leur chargement par impact d'ions, deviennent contre toutes attentes de bons conducteurs électriques ! <br />Les autres observations majeures obtenues dans ces recherches sont reliées la compréhension des mécanismes responsables à l'échelle moléculaire, en phase gazeuse, de l'endommagement de systèmes moléculaires d'intérêt biologique, suite à une irradiation avec des ions. Ces études ont notamment montré : d'une part, que certains mécanismes de reconnaissance moléculaire persistent en phase gazeuse, et d'autre part, que même la présence d'un environnement biochimique simplifié modifie fortement la dynamique de l'instabilité de la charge de ces molécules d'intérêt biologique.
302

TRANSITIONS DE PHASE EN DIMENSIONS FRACTALES

Monceau, Pascal 16 December 2004 (has links) (PDF)
Parmi les méthodes de la théorie du groupe de renormalisation, les développements en epsilon sont basés sur des calculs dans l'espace réciproque et permettent de calculer les exposants critiques associés aux transitions magnétiques du second ordre pour des valeurs non entières de la dimension d'espace. Une interprétation physique naturelle consiste à se demander comment se comporte un système de spins en interaction dans un espace de dimension fractale. Or les structures fractales sont construites par itération d'une cellule génératrice dont les détails sont donc présents à plusieurs échelles ; la question qui se pose alors est de savoir ce qui se passe lorsque l'invariance par translation est remplacée par une invariance d'échelle géométrique. La convergence vers la limite thermodynamique se produit en même temps que le processus d'itération construit la structure. De ce fait, des simulations Monte Carlo fiables de ces transitions de phase n'ont pu être menées à bien que récemment, puisqu'elles nécessitent la simulation de très grandes tailles, lesquelles varient comme des séries géométriques avec l'étape d'itération. C'est en utilisant des algorithmes non locaux dits “d'amas” (Wolff, Swendsen-Wang), capables de réduire le ralentissement critique de manière significative, et des méthodes d'histogrammes pour traiter les données des simulationsMonte-Carlo que j'ai tout d'abord réalisé ces études. Il s'avère que le calcul précis des exposants critiques est rendu encore plus difficile par le fait que l'analyse en tailles finies du modèle d'Ising souffre de corrections d'échelle qui peuvent affecter fortement le comportement de certaines grandeurs thermodynamiques, en particulier lorsque la dimension fractale tend vers 1. J'ai montré que ces corrections d'échelle sont en partie liées à la très forte inhomogénéité du réseau sous jacent (due à l'existence de trous sur plusieurs ordres de grandeurs) et à la concomitance de la construction du fractal avec la convergence vers la limite thermodynamique. Les résultats que j'ai obtenus pour les exposants critiques, ou leurs bornes, sont toujours compatibles avec la relation d'hyperscaling dans laquelle on substitue la dimension de Hausdorff à la dimension d'espace. Le comportement critique en dimension non entière se décrit dans le cadre de l'universalité faible. Cela se manifeste par un désaccord net entre les exposants que j'ai obtenus par les méthodes Monte Carlo et les développements en epsilon. Les exposants critiques ne dépendent pas seulement de la dimension d'espace, des propriétés de symétrie du paramètre d'ordre et de la portée des interactions, mais aussi des propriétés géométriques de la structure fractale : Très récemment des calculs précis d'exposants critiques m'ont permis de montrer que des classes d'universalité différentes sont en général nécessaires pour décrire le comportement du modèle d'Ising sur des fractals de même dimension et de lacunarités différentes. Un tel résultat généralise le concept d'universalité faible proposé par Masuo Suzuki. L'hypothèse d'homogénéité qui sous-tend les lois d'échelle permettant de décrire un comportement critique se dérive par renormalisation. La procédure de renormalisation dans l'espace direct est naturelle dans les fractals, puisqu'elle suit exactement le processus inverse de construction de la structure. Avec mon étudiant Pai-Yi Hsiao, nous avons mené à bien l'étude du modèle d'Ising par une méthode de renormalisation Monte-Carlo sur une structure fractale de dimension voisine de 1, 89 ; il s'avère que l'exposant associé à l'une des directions propres peut être calculé avec une très bonne précision et est en accord avec les résultats de l'analyse en tailles finies. En revanche, la convergence est très lente dans l'autre direction, ce qui est lié aux corrections d'échelle mises en évidence lors de cette analyse. La cinétique stochastique associée à la formation des amas construits par l'algorithme de Wolff sous tend la compréhension du phénomène de ralentissement critique. J'ai montré que les distributions des tailles des amas de Wolff ont une propriété d'homogénéité qui fait intervenir l'un des exposants associé à une des directions propres du processus de renormalisation. Par ailleurs, les distributions des tensions de surface des amas vérifient une propriété analogue dans laquelle intervient un nouvel exposant critique. L'étude des fonctions d'autocorrélation m'a permis de calculer précisément les exposants dynamiques de Wolff lorsque la température critique est connue, et d'éclaircir l'évolution du ralentissement critique avec la dimension et la connectivité. Dans le cas de systèmes invariants par translation, l'ordre de la transition ferromagnétique du modèle de Potts est lié au nombre d'états de spin ; le passage du premier au second ordre est attendu pour des dimensions non entières. Par ailleurs, la présence de désordre peut, dans certaines conditions, induire une transition du second ordre à partir d'un système qui en présente une du premier. L'étude du comportement critique du modèle de Potts sur des fractals est donc particulièrement intéressante, puisque deux des paramètres qui le déterminent (dimensionnalité et désordre structurel) sont liés. Avec mon étudiant Pai-Yi Hsiao, nous avons montré que la transition associée au modèle de Potts à trois états sur une structure fractale de dimension voisine de 1, 89 est du second ordre. Les difficultés attendues lorsqu'on augmente le nombre d'états de spins se font déjà nettement sentir : Les corrections d'échelle empêchent de calculer la température critique avec une très bonne précision. Nous n'avons donc pu donner que des bornes pour certains exposants ; nous avons cependant clairement mis en évidence la différence entre les classes d'universalité de Potts à 2 et 3 états. L'étude de la percolation en dimension non entière est liée à la fois à celle du modèle de Potts et aux algorithmes d'amas. Elle est basée sur l'étude des moments de la distribution de taille des amas, ce qui nécessite la localisation de pics en fonction de la probabilité d'occupation. J'ai pu montrer que les corrections d'échelle n'affectent pratiquement pas le comportement des pics avec la taille des structures, et proposé de les interpréter en termes de "seuil effectif".
303

Micromechanics of strength and strain hardening in mono- and multiphase fine grained materials

Delincé, Marc 28 February 2008 (has links)
In the transportation industry, weight reduction is essential in order to reduce fuel consumption. A solution towards lighter structures is to improve the mechanical properties while keeping a sufficient ductility for the forming operations. The aim of the thesis was to investigate the enhancement of the mechanical properties of metallic alloys by the refinement of the grain size while playing with other microstructural features in order to maintain the strain hardening, and thus the ductility, as high as possible. Various fine grained dual phase steels were produced by severe plastic deformation followed by thermal treatment. Nano-indentation and tensile tests have been performed to measure the change of flow properties associated to the grain refinement. A new methodology, based on performing nano-indentation tests at different depth inside each phases of the steels, has been proposed in order to separate the different hardening contributions affecting the behaviour of the material. In order to gain a better understanding of the link between the fine grained microstructure and the flow properties, three models were developed introducing successively a richer and richer description of the microstructure. The first model allows interpreting the nano-indentation data at different depths. The second model predicts the flow curve of dual phase steels by considering the accumulation of dislocations on the grain boundaries with the associated back stress and the saturation of this accumulation of excess dislocations, while introducing the second phase particles through a homogenization scheme. Finally, the third model promotes a new explanation of the Hall-Petch law and the interaction of the grain size and the texture for pure copper using a multigrain crystal plasticity model incorporating grain boundary effects. Guidelines are given to optimize the microstructures towards an improvement of the structural properties and formability.
304

Modélisation physique et théorique du creusement pressurisé des tunnels en terrains meubles homogènes et stratifiés

Berthoz, Nicolas 19 March 2013 (has links) (PDF)
De nos jours, l'utilisation de tunneliers à front pressurisé est souvent pleinement justifiée, en particulier en contexte urbain, où les terrains sont meubles, partiellement ou totalement saturés, et où la préservation du bâti impose une limitation drastique des pertes de volume au cours de l'excavation. Ce travail de thèse vise à améliorer la compréhension de la phénoménologie de ce mode de creusement et à développer de nouveaux outils d'aide à la justification des ouvrages, au dimensionnement des machines et au pilotage des chantiers. Dans un premier temps, des analyses sont menées à partir d'essais sur un modèle réduit de tunnelier à pression de terre original à l'échelle internationale. Celles-ci concernent le comportement en contraintes et déplacements du massif au cours du creusement en régime idéal, l'évaluation de la stabilité du front de taille, et l'analyse des grandeurs-machine du tunnelier. Les analyses réalisées sont menées en massifs de sol homogènes ainsi qu'en massifs stratifiés (bicouches/tricouches) configurations fréquemment rencontrées sur chantier. Dans un second temps, les analyses effectuées à l'échelle du modèle réduit sont confrontées à des données de chantier pour validation de la modélisation physique effectuée. Enfin, la modélisation théorique du creusement pressurisé des tunnels est étudiée. D'une part, les capacités et limites des outils analytiques (calcul à la rupture) et numériques d'évaluation de la stabilité du front de taille sont évaluées par confrontation avec nos résultats expérimentaux. D'autre part, une procédure de modélisation numérique du processus de creusement en régime idéal, calée sur la modélisation physique, est proposée.
305

Indentation de films élastiques complexes par des sondes souples

Martinot, Emmanuelle 14 December 2012 (has links) (PDF)
La compréhension des mécanismes qui pilotent la transmission des contraintes aux interfaces déformables est au centre de nombreuses problématiques touchant des applications actuelles utilisant un film mince de polymère souple comme couche interfaciale. Arriver à caractériser de tels films fins est encore un défi aujourd'hui car l'analyse des mesures expérimentales destinées à extraire les contributions dues aux films est complexe et délicate et les techniques usuelles de caractérisation sont peu adaptées aux systèmes. Ce travail étudie la réponse mécanique de deux types de systèmes modèles au moyen de deux techniques de caractérisation différentes. Le premier système que nous avons élaboré et caractérisé mécaniquement par le test JKR, est constitué de films d'élastomère réticulé d'épaisseurs micrométriques (de 5 à 100µm) et déposés sur des wafers de silicium. Les mesures expérimentales ont été analysées par comparaison à un modèle semi-analytique récent proposé par E. Barthel dans le but d'extraire le module élastique de chaque film et de répondre à la question de savoir si l'épaisseur du film influe sur la valeur de ce module. Nous avons montré que ce modèle permet de rendre compte quantitativement du raidissement lié à la présence d'un solide supportant le film mais que la précision sur les mesures de modules de Young reste limitée (de l'ordre de 35 %).Le deuxième système modèle est constitué de brosses de polymères greffées (PDMS) par une extrémité à la surface de wafers de silicium et gonflées dans un bon solvant (47V20). Nous avons analysé la réponse mécanique dans plusieurs régimes de distance et de fréquence en utilisant un appareil à forces de surface (SFA) dans lequel on contrôle l'approche d'une sphère millimétrique d'un plan sur lequel sont greffées les polymères. En statique, nous avons vérifié que la réponse en compression était celle d'une brosse de type Alexander-de Gennes. En mode dynamique, quand la sphère est loin de la couche gonflée, nous avons vérifié que la réponse dissipative était celle d'un écoulement de Reynolds qui décrit normalement l'écoulement d'un fluide simple newtonien entre une sphère et un plan solide. Ceci nous a permis de montrer que l'écoulement du solvant pénètre partiellement à l'intérieur de la couche greffée sur une profondeur de l'ordre du tiers de l'épaisseur gonflée de la couche. Dans le régime ou les brosses sont comprimées, il n'y a pas d'accord entre les mesures réalisées et le modèle classique de Fredrickson et Pincus. Ceci s'explique par les expériences que nous avons réalisées sur un substrat nu (sans polymère) montrant pour la première fois la déformation des substrats solides qui sont indentés par l'écoulement de liquide et qu'il faut prendre en compte cette déformation dans les analyses de nanorhéologie. Finalement, une annexe est consacrée à la fabrication de surfaces hydrophobes silanisées optimisées en vue d'étudier le glissement d'un liquide simple et d'électrolytes à la paroi.
306

Contribution à la modélisation de la pulvérisation d'un liquide phytosanitaire en vue de réduire les pollutions

De Luca, Magali 06 December 2007 (has links) (PDF)
La viticulture est une activité très consommatrice de pesticides (20% de la consommation totale française). Par conséquent, il semble capital d'optimiser les procédés de pulvérisation en milieu agricole afin de réduire les quantités de produits appliquées. Les traitements sont la plupart du temps pulvérisés sous forme d'une bouillie liquide composée d'eau et de matières actives, auxquelles sont ajoutées d'autres substances comme les surfactants et les adjuvants afin de faciliter leur emploi et d'améliorer leur efficacité. Des études récentes ont souligné que les tailles et vitesses de gouttes produites en sortie de buses ont un fort impact sur l'efficacité des traitements. En effet, suivant ces caractéristiques, les gouttes sont plus ou moins soumises aux phénomènes d'évaporation, de dérive ou de ruissellement. L'objectif de la présente étude est donc de modéliser l'atomisation des jets de pesticides afin d'obtenir la dispersion liquide, et les caractéristiques du jet. Ces données pourront servir de conditions initiales aux modèles de transport et de dépôt. Pour cela, un modèle Eulérien développé dans le secteur automobile est utilisé. Il suppose l'écoulement turbulent d'un « pseudo-fluide » avec une masse volumique comprise entre celle d'un liquide et celle d'un gaz. La dispersion du liquide dans la phase gazeuse est calculée grâce à l'équation de la fraction massique liquide moyenne. La taille moyenne des fragments liquides produits est quant à elle déterminée au moyen d'une équation pour la surface moyenne de l'interface liquide-gaz par unité de volume, dans laquelle sont pris en compte les phénomènes physiques responsables de la production et destruction de surface. La modélisation de la turbulence est assurée par le modèle aux tensions de Reynolds. Les équations du modèle ont été implémentées dans le code commercial CFD, Fluent et appliquées au cas d'une buse à turbulence agricole. Des calculs numériques tridimensionnels de l'écoulement interne et externe de la buse ont été réalisés jusqu'à une distance d'environ 1cm de la sortie. Les résultats numériques délivrés par le modèle semblent montrer un bon accord avec les photographies des jets obtenues par ombroscopie. Ils indiquent la formation d'une nappe liquide creuse en sortie de buse et la présence de zones de recirculation au sein de l'écoulement, soulignant l'existence d'un coeur d'air. Pour ce qui est des tailles de gouttes, les résultats mettent en évidence la présence d'une couronne de gouttes relativement grosses et, au milieu, de gouttes plus fines, conformément aux expérimentations. Ils soulignent également le fait que la cassure du spray se produit très près de la sortie de la buse.
307

Origine et flux de carbone dans les réseaux trophiques lacustres : Etude par analyse de la composition en isotopes stables du carbone et de l'azote du zooplancton et des poissons.

Perga, Marie Elodie 07 October 2004 (has links) (PDF)
Les communautés piscicoles sont situées au sommet des chaînes trophiques. Cette position dans le réseau trophique lacustre leur confère, de ce fait, un rôle potentiel d'intégrateurs des processus sous-jacents, à l'échelle de l'écosystème. De plus, la composition en isotopes stables d'un organisme dépend des voies qui transfèrent le carbone jusqu'à cet organisme. Notre hypothèse de base était donc que la composition en isotopes stables des poissons pourrait donc constituer un indicateur relatif du fonctionnement trophique des lacs. <br />Pour valider cette hypothèse, nous avons employé, dans un premier temps, le corégone, Coregonus lavaretus, un salmoniforme zooplanctonophage commun dans les lacs alpins, comme modèle biologique. Une étude préalable avait révélée que la composition en isotopes stables du carbone des corégones était très variable au sein des lacs alpins. Selon notre hypothèse, cette variabilité serait le reflet de différences dans les voies de transferts du carbone dans les réseaux trophiques de ces lacs. Les facteurs explicatifs de cette variabilité inter-lacs ont donc, dans un premier temps, été étudiés. Au terme de cette première partie, la composition isotopique du corégone s'est montrée être effectivement un indicateur du fonctionnement trophique des lacs.<br />Les perturbations peuvent modifier les flux de carbone au sein des systèmes et devraient, de fait, conduire à des changements dans les compositions isotopiques des communautés de poissons. L'effet de deux perturbations d'origine anthropique sur la composition isotopique des poissons a donc, par la suite, été analysé : la première est relative à l'eutrophisation-restauration de deux lacs alpins, la seconde concerne le marnage dans deux réservoirs africains. Les résultats de ces deux études indiquent que des modifications majeures, engendrées par ces perturbations, dans l'origine et les flux de carbone dans les réseaux trophiques, sont enregistrées dans l'histoire isotopique des communautés piscicoles.
308

Estimation de la Quantité de Vapeur d'Eau Précipitable et du Forçage Radiatif de l'Aérosol atmosphérique à partir de la Télédétection passive à Oujda (Maroc)

Ibrahim, El Aouadi 17 September 2005 (has links) (PDF)
L'aérosol atmosphérique est un composant essentiel dans la machine climatique, il contribue d'une façon significative à l'extinction du rayonnement au sein de l'atmosphère par les processus d'absorption et de diffusion. Ces processus peuvent être quantifiés sous le terme de forçage radiatif direct; la détermination de ce forçage reste incertaine à l'heure actuelle aux niveaux régional et global. Ce travail contribue en partie à l'estimation de ceforçage à l'échelle régionale, cette quantification est faite avec une méthode basée sur desmesures de l'irradiance solaire à l'aide du pyranomètre (spectre du rayonnement), et aussi par le photomètre solaire en terme d'épaisseur optique (mesures pour des longueurs d'ondes<br />précises). Toutes ces mesures sont effectuées au campus universitaire de la faculté des sciences d'Oujda (34°41' N ; 1°53' W ; 580 m d'altitude).<br />L'aérosol atmosphérique contribue à un refroidissement de la surface de l'ordre de -10 W/m² en moyenne annuelle, avec des variations très importantes. Le forçage peut atteindre des valeurs extrêmement élevées pour les jours chargés de poussière (-80 W/m² ).<br />L'aérosol du mode accumulation est le principal responsable du forçage radiatif avec une faible contribution des grosses particules.<br />La vapeur d'eau est une composante principale dans la formation des nuages et des précipitations. La détermination de la Quantité de Vapeur d'Eau Précipitable (QVEP) reste un objectif très important, la connaissance de sa distribution spatiale et temporelle est essentielle dans la correction des mesures de télédétection à cause de sa contribution importante dans les perturbations du signal mesuré par les instruments de télédétection. Les mesures de la transmittance solaire dans les bandes infrarouges de forte absorption de la vapeur d'eau permettent la détermination de cette QVEP.<br />La quantité de vapeur d'eau dans la région d'Oujda dépend des saisons, les valeurs élevées de l'ordre de 2.5 g/cm² sont enregistrées durant l'été et le printemps et les faibles valeurs autour de 0.3 g/cm² en automne et en hiver. Ces variations dépendent de la température et de l'eau de surface.
309

Modélisation de l'évolution de la taille des génomes et de leur densité en gènes par mutations locales et grands réarrangements chromosomiques

Fischer, Stephan 02 December 2013 (has links) (PDF)
Bien que de nombreuses séquences génomiques soient maintenant connues, les mécanismes évolutifs qui déterminent la taille des génomes, et notamment leur part d'ADN non codant, sont encore débattus. Ainsi, alors que de nombreux mécanismes faisant grandir les génomes (prolifération d'éléments transposables, création de nouveaux gènes par duplication, ...) sont clairement identifiés, les mécanismes limitant la taille des génomes sont moins bien établis. La sélection darwinienne pourrait directement défavoriser les génomes les moins compacts, sous l'hypothèse qu'une grande quantité d'ADN à répliquer limite la vitesse de reproduction de l'organisme. Cette hypothèse étant cependant contredite par plusieurs jeux de données, d'autres mécanismes non sélectifs ont été proposés, comme la dérive génétique et/ou un biais mutationnel rendant les petites délétions d'ADN plus fréquentes que les petites insertions. Dans ce manuscrit, nous montrons à l'aide d'un modèle matriciel de population que la taille du génome peut aussi être limitée par la dynamique spontanée des duplications et des grandes délétions, qui tend à raccourcir les génomes même si les deux types de ré- arrangements se produisent à la même fréquence. En l'absence de sélection darwinienne, nous prouvons l'existence d'une distribution stationnaire pour la taille du génome même si les duplications sont deux fois plus fréquentes que les délétions. Pour tester si la sélection darwinienne peut contrecarrer cette dynamique spontanée, nous simulons numériquement le modèle en choisissant une fonction de fitness qui favorise directement les génomes conte- nant le plus de gènes, tout en conservant des duplications deux fois plus fréquentes que les délétions. Dans ce scénario où tout semblait pousser les génomes à grandir infiniment, la taille du génome reste pourtant bornée. Ainsi, notre étude révèle une nouvelle force susceptible de limiter la croissance des génomes. En mettant en évidence des comporte- ments contre-intuitifs dans un modèle pourtant minimaliste, cette étude souligne aussi les limites de la simple " expérience de pensée " pour penser l'évolution. Nous proposons un modèle mathématique de l'évolution structurelle des génomes en met- tant l'accent sur l'influence des différents mécanismes de mutation. Il s'agit d'un modèle matriciel de population, à temps discret, avec un nombre infini d'états génomiques pos- sibles. La taille de population est infinie, ce qui élimine le phénomène de dérive génétique. Les mutations prises en compte sont les mutations ponctuelles, les petites insertions et délétions, mais aussi les réarrangements chromosomiques induits par la recombinaison ectopique de l'ADN, comme les inversions, les translocations, les grandes délétions et les duplications. Nous supposons par commodité que la taille des segments réarrangés suit une loi uniforme, mais le principal résultat analytique est ensuite généralisé à d'autres dis- tributions. Les mutations étant susceptibles de changer le nombre de gènes et la quantité d'ADN intergénique, le génome est libre de varier en taille et en compacité, ce qui nous permet d'étudier l'influence des taux de mutation sur la structure génomique à l'équilibre. Dans la première partie de la thèse, nous proposons une analyse mathématique dans le cas où il n'y a pas de sélection, c'est-à-dire lorsque la probabilité de reproduction est identique quelle que soit la structure du génome. En utilisant le théorème de Doeblin, nous montrons qu'une distribution stationnaire existe pour la taille du génome si le taux de duplications par base et par génération n'excède pas 2.58 fois le taux de grandes délétions. En effet, sous les hypothèses du modèle, ces deux types de mutation déterminent la dynamique spontanée du génome, alors que les petites insertions et petites délétions n'ont que très peu d'impact. De plus, même si les tailles des duplications et des grandes délétions sont distribuées de façon parfaitement symétriques, leur effet conjoint n'est, lui, pas symétrique et les délétions l'emportent sur les duplications. Ainsi, si les tailles de délétions et de duplications sont distribuées uniformément, il faut, en moyenne, plus de 2.58 duplications pour compenser une grande délétion. Il faut donc que le taux de duplications soit quasiment trois fois supérieur au taux de délétions pour que la taille des génomes croisse à l'infini. L'impact des grandes délétions est tel que, sous les hypothèses du modèle, ce dernier résultat reste valide même en présence d'un mécanisme de sélection favorisant directement l'ajout de nouveaux gènes. Même si un tel mécanisme sélectif devrait intuitivement pousser les génomes à grandir infiniment, en réalité, l'influence des délétions va rapidement limiter leur accroissement. En résumé, l'étude analytique prédit que les grands réarrangements délimitent un ensemble de tailles stables dans lesquelles les génomes peuvent évoluer, la sélection influençant la taille précise à l'équilibre parmi cet ensemble de tailles stables. Dans la deuxième partie de la thèse, nous implémentons le modèle numériquement afin de pouvoir simuler l'évolution de la taille du génome en présence de sélection. En choisissant une fonction de fitness non bornée et strictement croissante avec le nombre de gènes dans le génome, nous testons le comportement du modèle dans des conditions extrêmes, poussant les génomes à croître indéfiniment. Pourtant, dans ces conditions, le modèle numérique confirme que la taille des génomes est essentiellement contrôlée par les taux de duplications et de grandes délétions. De plus, cette limite concerne la taille totale du génome et s'applique donc aussi bien au codant qu'au non codant. Nous retrouvons en particulier le seuil de 2.58 duplications pour une délétion en deçà duquel la taille des génomes reste finie, comme prévu analytiquement. Le modèle numérique montre même que, dans certaines conditions, la taille moyenne des génomes diminue lorsque le taux de duplications augmente, un phénomène surprenant lié à l'instabilité structurelle des grands génomes. De façon similaire, augmenter l'avantage sélectif des grands génomes peut paradoxalement faire rétrécir les génomes en moyenne. Enfin, nous montrons que si les petites insertions et délétions, les inversions et les translocations ont un effet limité sur la taille du génome, ils influencent très largement la proportion d'ADN non codant.
310

Etude multi-échelle des mécanismes de (dé)lithiation et de dégradation d'électrodes à base de LiFePO4 et de Silicium pour accumulateurs Li-ion

Robert, Donatien 29 November 2013 (has links) (PDF)
Ces travaux ont permis d'approfondir les mécanismes de (dé)lithiation et de vieillissement dans des électrodes à base de silicium et de LiFePO4 pour accumulateurs Li-ion à partir d'observations multi-échelles. Des cartographies de phases, autant à l'échelle de la particule qu'à l'échelle de l'électrode, ont été menées par microscopie électronique mettant en évidence de fortes hétérogénéités. Pour le silicium, la mise en place de cartographie unique par STEM/EELS, s'appuyant sur une base de données des pertes faibles d'alliages sensibles à l'air et au faisceau d'électrons, a permis de comprendre les mécanismes de lithiation à l'échelle du nanomètre. L'étude de la première lithiation a montré des différences de mécanismes de réaction avec le lithium suivant deux facteurs : la taille des particules et les défauts au sein de celles-ci. Il a été observé une composition d'alliage LixSi plus faible pour les nanoparticules que pour les microparticules. Les défauts dus notamment au broyage constituent des sites préférentiels de lithiation. En vieillissement, les nanoparticules subissent de profonds changements structuraux et morphologiques, passant d'un état sphérique cristallin (50 nm) à un réseau de fils amorphe (5-10 nm d'épaisseur) contenu dans une matrice de SEI. Pour le LiFePO4, il a été clairement montré, par la combinaison de plusieurs techniques de microscopies électroniques (diffraction des électrons en précession, EFSD : Electron Forward Scattering Diffraction, EFTEM), que les particules de taille nanométrique (100-200 nm) étaient soit entièrement lithiées soit entièrement délithiées à l'équilibre thermodynamique. De fortes hétérogénéités ont été observées dans les électrodes fines comme dans les électrodes épaisses. A l'échelle des particules, l'analyse statistique de plus de 64000 particules a montré que les plus petites particules se délithient en premier. A l'échelle de l'agglomérat, les cartographies de phases ont révélé un mécanisme " cœur-coquille " : la réaction débute de la surface vers le centre des agglomérats. A l'échelle de l'électrode, le front de propagation de phase se déplace suivant des chemins préférentiels de plus grandes porosités de la surface de l'électrode vers le collecteur de courant. La conductivité ionique au sein de nos électrodes est le facteur limitant.

Page generated in 0.0504 seconds